NTT un Tokijas Universitāte izstrādā pasaulē pirmo optisko skaitļošanas AI, izmantojot cilvēka smadzeņu iedvesmotu algoritmu

Sadarbība veicina mazjaudas, liela ātruma mākslīgā intelekta praktisko pielietojumu, pamatojoties uz optisko skaitļošanu

TOKIJA — (BIZNESA VEIDS) —#TechforGoodSākot noKorporācija NTT (prezidents un izpilddirektors: Akira Shimada, “NTT”) un Tokijas Universitāte (Bunkyo-ku, Tokija, prezidents: Teruo Fujii) ir izstrādājuši jaunu mācību algoritmu, ko iedvesmojusi smadzeņu informācijas apstrāde un kas ir piemērots daudzslāņu mākslīgajiem neironu tīkliem (DNN), izmantojot analogās darbības. Šis sasniegums ļaus samazināt AI enerģijas patēriņu un skaitļošanas laiku. Šīs attīstības rezultāti tika publicēti Lielbritānijas zinātniskajā žurnālā Nature Communications 26. decembrīth.


Pētnieki panāca pasaulē pirmo efektīvi izpildītas optiskās DNN mācīšanās demonstrāciju, piemērojot algoritmu DNN, kas izmanto optiskos analogos aprēķinus, kas, domājams, nodrošinās ātrdarbīgas, mazjaudas mašīnmācīšanās ierīces. Turklāt viņi ir sasnieguši pasaulē augstāko veiktspēju daudzslāņu mākslīgā neironu tīklā, kas izmanto analogās darbības.

Agrāk lielas slodzes mācību aprēķini tika veikti ar digitāliem aprēķiniem, taču šis rezultāts pierāda, ka ir iespējams uzlabot mācību daļas efektivitāti, izmantojot analogos aprēķinus. Dziļā neironu tīkla (DNN) tehnoloģijā atkārtotu neironu tīklu, ko sauc par dziļo rezervuāru skaitļošanu, aprēķina, pieņemot, ka optiskais impulss ir neirons un nelineārs optiskais gredzens ir neironu tīkls ar rekursīviem savienojumiem. Atkārtoti ievadot izejas signālu tajā pašā optiskajā shēmā, tīkls tiek mākslīgi padziļināts.

DNN tehnoloģija nodrošina progresīvu mākslīgo intelektu (AI), piemēram, mašīntulkošanu, autonomu braukšanu un robotiku. Pašlaik nepieciešamā jauda un skaitļošanas laiks palielinās tādā tempā, kas pārsniedz digitālo datoru veiktspējas pieaugumu. Paredzams, ka DNN tehnoloģija, kas izmanto analogo signālu aprēķinus (analogās darbības), būs metode augstas efektivitātes un ātrgaitas aprēķinu veikšanai, kas ir līdzīga smadzeņu neironu tīklam. Sadarbībā starp NTT un Tokijas universitāti ir izstrādāts jauns algoritms, kas piemērots analogajai darbībai DNN, kas neuzņemas izpratni par DNN iekļautajiem mācību parametriem.

Piedāvātā metode mācās, mainot mācīšanās parametrus, pamatojoties uz tīkla gala slāni un vēlamā izejas signāla kļūdas (kļūdas signāla) nelineāro nejaušo transformāciju. Šis aprēķins atvieglo analogo aprēķinu ieviešanu tādās lietās kā optiskās shēmas. To var izmantot arī ne tikai kā modeli fiziskai ieviešanai, bet arī kā progresīvu modeli, ko izmanto tādās lietojumprogrammās kā mašīntulkošana un dažādi AI modeļi, tostarp DNN modelis. Paredzams, ka šis pētījums palīdzēs atrisināt jaunas problēmas, kas saistītas ar AI skaitļošanu, tostarp enerģijas patēriņu un palielinātu aprēķina laiku.

Papildus šajā dokumentā piedāvātās metodes pielietojamības izpētei konkrētām problēmām, NTT veicinās arī liela mēroga un maza mēroga optiskās aparatūras integrāciju, lai izveidotu ātrdarbīgu, mazjaudas optisko skaitļošanas platformu nākotnes optiskajai sistēmai. tīkliem.

Atbalsts šim pētījumam:

JST/CREST atbalstīja daļu no šiem pētījuma rezultātiem.

Žurnāla publikācija:

Žurnāls: Nature Communications (Tiešsaistes versija: 26. decembris)

Raksta nosaukums: Fiziska dziļa mācīšanās ar bioloģiski iedvesmotu apmācības metodi: bezgradienta pieeja fiziskajai aparatūrai

Autori: Mitsumasa Nakajima, Katsuma Inoue, Kenji Tanaka, Yasuo Kuniyoshi, Toshikazu Hashimoto un Kohei Nakajima

Terminoloģijas skaidrojums:

  1. Optiskā shēma: ķēde, kurā silīcija vai kvarca optiskie viļņvadi ir integrēti silīcija plāksnē, izmantojot elektronisko shēmu ražošanas tehnoloģiju. Komunikācijā optisko sakaru ceļu sazarošana un sapludināšana tiek veikta ar optiskiem traucējumiem, viļņu garuma multipleksēšanu/demultipleksēšanu un tamlīdzīgi.
  2. Backpropagation (BP) metode: Visbiežāk izmantotais mācīšanās algoritms dziļajā mācībā. Svērumu (parametru) gradienti tīklā tiek iegūti, izplatot kļūdas signālu atpakaļ, un svari tiek atjaunināti, lai kļūda kļūtu mazāka. Tā kā atpakaļpavairošanas process prasa tīkla modeļa svara matricas transponēšanu un nelineāru diferenciāciju, to ir grūti ieviest analogajās shēmās, tostarp dzīva organisma smadzenēs.
  3. Analogā skaitļošana: dators, kas izsaka reālas vērtības izmantojot tādus fiziskos lielumus kā gaismas intensitāte un fāze un magnētisko griešanās virzienu un intensitāti un veic aprēķinus, mainot šos fiziskos lielumus saskaņā ar fizikas likumiem.
  4. Tiešās atgriezeniskās saites izlīdzināšanas (DFA) metode: metode katra slāņa kļūdas signāla pseidoaprēķinam, veicot nelineāru nejaušu transformāciju gala slāņa kļūdas signālam. Tā kā tam nav nepieciešama tīkla modeļa diferenciālā informācija un to var aprēķināt tikai ar paralēlu nejaušu transformāciju, tas ir saderīgs ar analogo aprēķinu.
  5. Rezervuāra skaitļošana: atkārtota neironu tīkla veids ar atkārtotiem savienojumiem slēptajā slānī. To raksturo nejauši fiksēti savienojumi starpslānī, ko sauc par rezervuāra slāni. Dziļo rezervuāru skaitļošanā informācijas apstrāde tiek veikta, savienojot rezervuāra slāņus vairākos slāņos.

NTT un NTT logotips ir NIPPON TELEGRAPH AND TELEPHONE CORPORATION un/vai tā saistīto uzņēmumu reģistrētas preču zīmes vai preču zīmes. Visi pārējie norādītie produktu nosaukumi ir to attiecīgo īpašnieku preču zīmes. © 2023 NIPPON TELEGRAPH AND TELEPHONE CORPORATION

Kontakti

Stīvens Rasels

Vadu sakari®

Par NTT

+ 1-804-362-7484

[e-pasts aizsargāts]

Avots: https://thenewscrypto.com/ntt-and-the-university-of-tokyo-develop-worlds-first-optical-computing-ai-using-an-algorithm-inspired-by-the-human-brain/