Nagbukas ang DeepMind ng libreng access sa isang virtual machine learning environment. Sinubukan ng Google ang artificial intelligence ng DeepMind sa mga kondisyon ng "problema ng bilanggo" Deep mind artificial intelligence

Bumili ang Google ng artificial intelligence company na DeepMind na nakabase sa London. Tinatawag ng mga mapagkukunan ang halaga ng transaksyon sa higit sa 500 milyong dolyar. Ang pagbili ay opisyal na nakumpirma ng mga kinatawan sa Google.


Ano ang ibibigay ng Google sa acquisition na ito? Una, papayagan itong makipagkumpitensya sa iba pang malalaking kumpanya ng teknolohiya, salamat sa pagtutok nito sa malalim na pag-aaral. Ang Facebook, halimbawa, kamakailan ay tinanggap si Propesor Yann LeKanna upang pamunuan ang sarili nitong pagpapaunlad ng artificial intelligence. Ang Watson supercomputer ng IBM ay kasalukuyang partikular na nakatuon sa malalim na pag-aaral, at nakuha ng Yahoo kamakailan ang LookFlow, isang photo analysis startup, na sumusulong din sa bagay na ito.

Ang DeepMind ay itinatag ng neuroscientist na si Demis Hassabis, dating chess prodigy, Skype at Kazaa developer na si Jaan Tallinn, at researcher na si Shane Legg.

Ang hakbang ng Google ay magbibigay-daan sa koponan ng tech giant na punan ang sarili nitong larangan ng mga eksperto sa artificial intelligence, at ang pagkuha ay personal na pinangasiwaan ng Google CEO na si Larry Page, sabi ng mga source. Kung magtatrabaho ang lahat ng tatlong founder para sa Google, sasali sila sa imbentor, negosyante, may-akda, at futurist na si Ray Kurzweil, na noong 2012 ay naging CTO ng machine learning at dibisyon sa pagpoproseso ng wika ng Google.

Sinabi ni Kurzweil na gusto niyang bumuo ng isang search engine na napakaperpekto na maaari itong maging isang tunay na "cybernetic na kaibigan."

Mula noong pagkuha ng Nest sa unang bahagi ng buwang ito, nag-alala ang mga kritiko tungkol sa kung gaano karaming data ng user ang ipapadala sa Google. Ang pagbili ng Boston Dynamics noong nakaraang buwan ay humantong din sa debate na plano ng Google na maging isang robot maker.

Gayunpaman, handa nang husto ang Google na pawiin ang aming mga pangamba tungkol sa mga pinakabagong acquisition nito. Sinasabi ng mga mapagkukunan na nagpasya ang Google na magtatag ng isang konseho ng etika na mangangasiwa sa pagbuo ng artificial intelligence sa loob ng DeepMind.

Gayunpaman, kailangang linawin ng kumpanya kung ano ang eksaktong ginagawa ng artificial intelligence ng DeepMind. Ang website ng kumpanya ay kasalukuyang mayroong isang landing page na may medyo malabo na paglalarawan na nagsasabing ang DeepMind ay "isang kumpanya na nasa pinakamainam" at bumubuo ng mga algorithm ng hinaharap para sa mga simulation, e-commerce at mga laro. Noong Disyembre, ang startup ay may 75 empleyado.

Ang mga pangunahing sponsor ng startup ay Founders Fund at Horizons Ventures. Ang DeepMind ay itinatag tatlong taon na ang nakakaraan.

Noong 2012, isinulat ng propesor ng Carnegie Mellon Institute na si Larry Wasserman na "ang isang startup ay bubuo ng isang sistema na nag-iisip. Akala ko puro kabaliwan lang hanggang sa nalaman ko kung ilang sikat na bilyonaryo ang namuhunan sa kumpanya.”

Disyembre 6, 2016 nang 00:41

Nagbukas ang DeepMind ng libreng access sa isang virtual machine learning environment

  • Sikat na Agham,
  • Artipisyal na katalinuhan,
  • Mga laro at game console

Kamakailan, inihayag ng mga kinatawan ng DeepMind division (ngayon ay bahagi ng Alphabet holding) ang pagbibigay ng libreng access sa mga developer sa source code ng DeepMind Lab platform. Isa itong serbisyo sa pag-aaral ng makina batay sa Quake III, na idinisenyo upang sanayin ang artificial intelligence. Lalo na, upang malaman kung paano lutasin ang mga problema sa tatlong-dimensional na espasyo nang walang interbensyon ng tao. Ang platform ay batay sa Quake III Arena game engine.

Sa loob ng mundo ng laro, nakukuha ng AI ang hugis ng isang globo at ang kakayahang lumipad, na pinag-aaralan ang nakapalibot na espasyo. Ang layuning itinakda ng mga developer ay turuan ang mahinang anyo ng AI na "maunawaan" kung ano ang nangyayari at tumugon sa iba't ibang sitwasyong nagaganap sa virtual na mundo. Ang "Character" ay maaaring magsagawa ng ilang mga aksyon, lumipat sa maze, galugarin ang agarang kapaligiran.

"Sinusubukan naming bumuo ng iba't ibang anyo ng AI na maaaring magsagawa ng isang hanay ng mga gawain mula sa simpleng paggalugad sa mundo ng laro hanggang sa paggawa ng anumang mga aksyon at pagsusuri sa mga kahihinatnan nito," sabi ni Shane Legg, Chief Scientist sa DeepMind.

Umaasa ang mga eksperto na matututo ang AI sa pamamagitan ng pagsubok at pagkakamali. Ang mga laro sa kasong ito ay halos perpekto. Halimbawa, ginamit noon ng DeepMind (at ginagamit na ngayon) ang Atari game console upang turuan ang neural network na gawin ang mga sunud-sunod na pagkilos na kinakailangan para sa laro.

Ngunit ang isang bukas, nababagong 3D na mundo ay nagbibigay ng mas promising na kapaligiran para sa pag-aaral ng AI kaysa sa patag na mundo ng mga graphic na simpleng laruan ni Atari. Ang AI sa mundo ng 3D ay may malinaw na mga gawain na nagbabago nang sunud-sunod sa paraang ang karanasang nakuha sa paglutas ng bawat nakaraang gawain ay naging kapaki-pakinabang para sa AI sa kurso ng paglutas ng susunod.

Ang bentahe ng 3D na kapaligiran ay maaari itong magamit upang sanayin ang mga sistema ng computer upang tumugon sa iba't ibang mga problema na maaaring asahan ng isang robot sa totoong mundo. Sa tulong ng naturang simulator, ang mga robot na pang-industriya ay sinanay nang walang anumang mga problema. At ang pagtatrabaho sa isang virtual na kapaligiran ay hindi karaniwang mas madali sa ilang mga kaso kaysa sa pagsasanay ng mga naturang sistema nang "manu-mano".

Kasabay nito, karamihan sa mga modernong neural network ay binuo upang malutas ang isang partikular na problema (pagproseso ng imahe, halimbawa). Nangangako ang mga developer ng bagong platform na makakatulong ito na lumikha ng isang unibersal na anyo ng AI na may kakayahang lutasin ang isang malaking bilang ng mga gawain. Bukod dito, sa kasong ito, hindi kakailanganin ng computer system ang tulong ng mga tao. Ang henerasyon ng kapaligiran para sa neural network ay nangyayari sa bawat oras sa isang random na pagkakasunud-sunod.


Ayon sa mga nag-develop ng platform, nakakatulong ito upang matuto ng AI sa halos parehong paraan tulad ng pag-aaral ng mga bata. "Paano mo o ako ginalugad ang mundo bilang isang bata," isang empleyado ng DeepMind ang nagbigay ng halimbawa. "Ang pamayanan ng machine learning ay palaging napakabukas. Naglalathala kami ng humigit-kumulang 100 artikulo sa isang taon, at nagbubukas kami ng mapagkukunan ng marami sa aming mga proyekto."

Ngayon ay binuksan ng Google DeepMind ang source code ng DeepMind Lab, na-post ito sa GitHub. Salamat dito, maaaring i-download ng sinuman ang code ng platform at baguhin ito upang umangkop sa kanilang mga pangangailangan. Sinasabi ng mga kinatawan ng proyekto na ang mga konektadong espesyalista ay maaaring lumikha ng mga bagong antas ng laro nang mag-isa sa pamamagitan ng pag-upload ng sarili nilang mga proyekto sa GitHub. Makakatulong ito sa buong komunidad na magtrabaho patungo sa kanilang layunin nang mas mabilis at mas mahusay.

Ang proyektong ito ay hindi lamang para sa DeepMind. Noong nakaraang buwan, ang mga kinatawan nito ay pumasok sa isang kasunduan sa pakikipagtulungan sa Activision Blizzard Inc. Ang layunin ay ang kapaligiran ng Starcraft 2 sa testing ground para sa artificial intelligence. Marahil ang ibang mga developer ng laro ay malapit nang sumali sa proyektong ito. Sa pamamagitan ng paraan, ang AI sa kapaligiran ng paglalaro ay hindi nakakakuha ng anumang kalamangan sa kaaway, gamit lamang para sa pagsulong, tulad ng isang tao.

Sa pagsasagawa, nangangahulugan ito na kakailanganin ng Google AI na hulaan kung ano ang ginagawa ng kaaway sa anumang oras upang sapat na tumugon sa mga aksyon ng "kaaway". Bilang karagdagan, kinakailangan na mabilis na tumugon sa kung ano ang lumabas sa plano. Ang lahat ng ito ay susubok sa susunod na antas ng mga kakayahan ng artificial intelligence. "Sa huli, gusto naming ilapat ang mga kakayahang ito upang malutas ang mga pandaigdigang problema," sabi ni Demis Hassabis, tagapagtatag ng Deepmind (na binili ng Google noong 2014, at ngayon ay binuo ang AI batay sa mga nagawa ng nakuhang kumpanya).

Ang mga eksperto sa AI ay nagbibigay ng maingat na pag-apruba sa proyekto. "Ang magandang bagay ay nagbibigay sila ng maraming uri ng kapaligiran," sabi ng co-founder ng OpenAI na si Ilya Sutskevar. "Kung mas maraming kapaligiran ang nakatagpo ng isang system, mas mabilis itong mag-evolve," patuloy niya. Sa katunayan, ang kapaligiran sa pag-aaral ng 3D AI ay naglalaman ng higit sa 1000 mga antas at mga uri ng kapaligiran.

Naniniwala si Zoubin Gahrahmani, propesor sa Cambridge, na ang DeepMind Lab at iba pang mga platform para sa pagpapahusay ng pagbuo ng artificial intelligence ay nagtutulak ng pag-unlad sa pamamagitan ng pagpapahintulot sa mga mananaliksik na ma-access ang binuong kapaligiran. Gayunpaman, tulad ng mga proyekto

Ang mga mananaliksik ng Google Deepmind ay naglabas ng bagong uri ng artificial intelligence system, ang tinatawag na Differentiable Neural Computer, DNC. Pinagsasama ng system ang kakayahang matuto ng mga neural network sa mga deductive na kakayahan ng tradisyonal na AI. Ang kanyang paglalarawan ay nai-publish sa magazine Kalikasan, ang isang bagong gawa ay nakatuon sa parehong isyu ng journal, isang maikling muling pagsasalaysay ng gawain ay matatagpuan sa Deepmind blog.

Ang pinakasimpleng mga neural network ay isang sistema ng hula, regression, ang gawain kung saan ay upang itugma ang data ng input na may isang tiyak na sagot. Halimbawa, maaaring makilala ng isang simpleng neural network ang mga character batay sa kanilang mga larawan. Sa ganitong kahulugan, ang neural network ay maaaring ituring bilang isang mathematical function, at isang differentiable function. Upang sanayin ang isang neural network sa gayong paradigm ay nangangahulugan na i-optimize ang function na ito gamit ang mga karaniwang pamamaraan ng matematika (isang naa-access na paliwanag kung paano nangyayari ang pagsasanay ay mababasa).

Ang kakayahang matuto mula sa data nang walang direktang programming ng tao ay ang pangunahing bentahe ng mga neural network. Gayunpaman, ang pinakasimpleng neural network ay hindi kumpleto sa Turing, ibig sabihin, hindi nila magagawa lahat mga bagay na kaya ng mga tradisyonal na algorithmic program (na, gayunpaman, ay hindi nangangahulugang hindi nila magagawa ilang sa mga bagay na ito ay mas mahusay kaysa sa mga programa). Ang isa sa mga dahilan para dito ay ang kakulangan ng memorya sa mga neural network, kung saan maaari kang gumana gamit ang data ng input at mag-imbak ng mga lokal na variable.

Kamakailan lamang, lumitaw ang isang mas kumplikadong uri ng mga neural network, kung saan ang sagabal na ito ay inalis - ang tinatawag na paulit-ulit na mga neural network. Hindi lamang sila nag-iimbak ng impormasyon tungkol sa estado ng pag-aaral (isang matrix ng mga timbang ng mga neuron), kundi pati na rin ang impormasyon tungkol sa nakaraang estado ng mga neuron mismo. Bilang resulta, ang tugon ng naturang neural network ay naiimpluwensyahan hindi lamang ng data ng input at ng weight matrix, kundi pati na rin ng agarang kasaysayan nito. Ang pinakasimpleng neural network ng ganitong uri ay maaaring, halimbawa, "matalinong" mahulaan ang susunod na karakter sa teksto: sa pamamagitan ng pagsasanay sa neural network sa data ng diksyunaryo, posibleng makuha ang sagot na "l" para sa karakter na "l" kung ang mga nakaraang character ay "h", "e" at "l", ngunit ang ibang sagot ay "o", kung ang mga nauna ay "h", "e", "l" at muli "l" (ang salitang " hello" ay lalabas, tingnan ang inset).

Isang halimbawa ng paulit-ulit na neural network na may isang nakatagong layer. Makikita mo kung paano binago ng data feed ang estado ng network. Ang mga sinanay na timbang ng mga neuron ay iniimbak sa mga matrice na W_xh, W_hy at isang espesyal na matrix na W_hh, na karaniwan lamang para sa mga paulit-ulit na network.

Andrej Karpathy blog

Ang mga paulit-ulit na neural network ay nagpakita ng kanilang mga sarili nang napakahusay kapag bumubuo ng musika o teksto "sa istilo" ng ilang may-akda, sa corpus kung saan naganap ang pagsasanay, sa * at, kamakailan, sa mga system at iba pa (halimbawa,).

Sa pormal na pagsasalita, kahit na ang pinakasimpleng paulit-ulit na neural network ay kumpleto sa Turing, ngunit ang kanilang mahalagang disbentaha ay nakasalalay sa likas na katangian ng paggamit ng memorya. Kung sa Turing machine ang memorya at ang calculator ay pinaghihiwalay (na nagpapahintulot sa iyo na baguhin ang kanilang arkitektura sa iba't ibang paraan), pagkatapos ay sa paulit-ulit na neural network, kahit na sa pinaka-advanced sa kanila (LSTM), ang sukat at likas na katangian ng memory handling ay tinutukoy ng arkitektura ng neural network mismo.

Upang itama ang likas na kapintasan na ito sa mga network ng LSTM, iminungkahi kamakailan ng mga siyentipiko sa DeepMind (na lahat ay bahagi ng pangkat ng mga may-akda ng bagong artikulo) ang arkitektura ng tinatawag na Neural Turing Machines (Neural Turing Machines). Sa loob nito, ang calculator at memorya ay pinaghihiwalay, tulad ng sa maginoo Turing machine, ngunit sa parehong oras, ang system ay nagpapanatili ng mga katangian ng isang differentiable function, na nangangahulugan na maaari itong sanayin sa pamamagitan ng mga halimbawa (gamit ang paraan ng backpropagation) at hindi tahasan nakaprograma. Ang bagong sistema, isang differentiable neural computer, o DNC, ay nakabatay sa parehong arkitektura, ngunit ang komunikasyon sa pagitan ng calculator at memorya ay nakaayos sa isang mas nababaluktot na paraan: ipinapatupad nito ang mga konsepto ng hindi lamang pagsasaulo, kundi pati na rin ang pagkilala sa konteksto at pagkalimot. (isang hiwalay na seksyon ay nakatuon sa paghahambing ng dalawang sistema). bagong artikulo).

Sa simpleng paraan, ang gawain ng DNC ay maaaring katawanin bilang mga sumusunod. Ang sistema ay binubuo ng isang calculator, na maaaring laruin ng halos anumang paulit-ulit na neural network, at memorya. Ang calculator ay may mga espesyal na module para sa pag-access ng memorya, at sa itaas ng memorya mayroong isang espesyal na "add-on" sa anyo ng isang matrix na nag-iimbak ng kasaysayan ng paggamit nito (higit pang mga detalye sa ibaba). Ang memorya ay isang N×M matrix, kung saan ang N i row ay ang pangunahing mga cell kung saan isinusulat ang data (sa anyo ng mga vector ng M na dimensyon).


Arkitektura ng DNC: ang mga linya ng data ay ipinapakita bilang mga linya na may itim at puting mga parisukat - kinakatawan lamang nila ang mga positibo at negatibong numero sa vector. Makikita na ang pagbabasa ay may tatlong mga module ng trabaho C, B at F, i.e. associative, direct at inverse - ito ay mga paraan upang ihambing ang input vector sa vector sa memory cell. Ang memorya ay N×M. Ang pinakakanan ay eskematiko na nagpapakita ng isang N×N na "meta-memory" na matrix na nag-iimbak ng pagkakasunud-sunod ng pag-access sa memorya.

Ang pangunahing pagkakaiba sa pagitan ng DNC at mga kaugnay na sistema ay ang likas na katangian ng paghawak ng memorya. Sabay-sabay itong nagpapatupad ng ilang bago o kamakailang umuusbong na mga konsepto: pumipili ng atensyon, paghahanap ayon sa konteksto, paggunita sa pamamagitan ng pagkakaugnay, at paglimot. Halimbawa, kung ang mga ordinaryong computer ay tahasang nag-a-access ng memorya ("isulat ang data na ganito at ganoon sa isang cell na ganito at ganoon"), kung gayon sa DNC, pormal na pagsasalita, ang pagsusulat ay nangyayari sa lahat ng mga cell nang sabay-sabay, gayunpaman, ang antas ng impluwensya ng bagong data sa ang lumang data ay tinutukoy ng mga timbang ng atensyon sa iba't ibang mga cell. Ang ganitong pagpapatupad ng konsepto ay tinatawag na "malambot na atensyon", at ito ay tiyak na nagbibigay ng pagkakaiba-iba - ang mga sistema na may matinding atensyon ay hindi nakakatugon sa pangangailangan ng pagpapatuloy ng pag-andar at hindi maaaring sanayin gamit ang paraan ng backpropagation (ginagamit ang reinforcement learning). Gayunpaman, kahit na ang "malambot na atensyon" sa sistema ng DNC ay ipinatupad na "sa halip mahirap" sa pagsasanay, kaya maaari pa ring makipag-usap tungkol sa pagsulat o pagbabasa mula sa isang tiyak na hilera ng memory matrix.

Ang "soft attention" ay ipinatupad sa system sa tatlong mga mode. Ang una ay ang paghahanap sa konteksto, na nagpapahintulot sa DNC na kumpletuhin ang hindi kumpletong data. Halimbawa, kapag ang isang piraso ng ilang pagkakasunud-sunod na kahawig ng isa na nakaimbak na sa memorya ay ipinadala sa input ng calculator, ang read operator na may atensyon sa context search mode ay hahanapin ang pinakamalapit na string sa komposisyon at "ihalo" ito sa input data .

Pangalawa, ang atensyon sa iba't ibang bahagi ng memorya ay maaaring matukoy ng kasaysayan ng paggamit nito. Ang kasaysayang ito ay naka-imbak sa isang N×N matrix, kung saan ang bawat cell N(i,j) ay tumutugma sa isang marka na malapit sa 1 kung ang entry sa row i ay sinundan ng isang entry sa row j (o zero kung hindi). Ang "meta-memory matrix" na ito ay isa sa mga pangunahing pagkakaiba sa pagitan ng bagong DNC system at ng lumang NTM. Pinapayagan nito ang system na "tandaan" ang mga bloke ng data nang sunud-sunod kung madalas itong mangyari sa konteksto ng bawat isa.

Pangatlo, ang isang espesyal na mode ng atensyon ay nagpapahintulot sa system na kontrolin ang pagsusulat sa iba't ibang linya ng memorya: upang iimbak ang mahalaga at burahin ang hindi mahalaga. Ang linya ay itinuturing na mas puno, mas maraming beses itong sinulatan, ngunit ang pagbabasa mula sa linya ay maaaring, sa kabaligtaran, ay humantong sa unti-unting pagbura nito. Ang pagiging kapaki-pakinabang ng naturang function ay lumilitaw na halata sa halimbawa ng pagsasanay batay sa DNC ng isang simpleng repeater (dapat na tumpak na kopyahin ng neural network ang pagkakasunud-sunod ng data na ipinakain dito). Para sa ganoong gawain, na may posibilidad na mabura, kahit isang maliit na halaga ng memorya ay sapat na upang ulitin ang isang walang limitasyong bilang ng data. Dapat pansinin dito na napakadaling ipatupad ang isang repeater sa programmatically, ngunit upang gawin ito sa batayan ng isang neural network, sa pamamagitan ng reinforcement learning, ay isang mas mahirap na gawain.


Scheme ng pagpapatakbo ng isang repeater na ipinatupad batay sa DNC. Ang oras sa diagram ay mula kaliwa hanggang kanan. Ipinapakita sa itaas ang data na natatanggap ng controller sa input: una, isang column ng sampung itim na bar (lahat ng mga zero), pagkatapos ay ilang puti at itim, pagkatapos ay muli ilang puti at itim, ngunit sa ibang pagkakasunud-sunod. Sa ibaba, kung saan ang output mula sa controller ay ipinapakita sa parehong paraan, una nating nakikita ang mga itim na bar, at pagkatapos ay isang halos eksaktong pagpaparami ng pagkakasunud-sunod ng mga pattern (ang parehong puting blotch tulad ng sa input). Pagkatapos ng isang bagong pagkakasunud-sunod ay fed sa input - na may pagkaantala, ito ay muling ginawa sa output. Ipinapakita ng gitnang graph kung ano ang nangyayari sa oras na ito sa mga cell ng memorya. Mga berdeng parisukat - pagsulat, rosas - pagbabasa. Ang saturation ay nagpapakita ng "kapangyarihan ng atensyon" sa partikular na cell na ito. Makikita kung paano unang isinulat ng system ang mga natanggap na pattern sa cell 0, pagkatapos ay 1, at iba pa hanggang 4. Sa susunod na hakbang, ang system ay bibigyan lamang ng mga zero (itim na field) at samakatuwid ay huminto ito sa pagre-record at magsisimulang maglaro. pattern, binabasa ang mga ito mula sa mga cell sa parehong pagkakasunud-sunod, kung paano sila nakarating doon. Sa pinakailalim, ipinapakita ang pag-activate ng mga gate na kumokontrol sa pagpapalabas ng memorya.

Alex Graves et al., Kalikasan, 2016

Sinubukan ng mga siyentipiko ang nagresultang sistema sa ilang mga gawain sa pagsubok. Ang una sa mga ito ay ang kamakailang binuo na standardized text comprehension test, bAbI, na binuo ng mga mananaliksik sa Facebook. Sa loob nito, ang sistema ng AI ay binibigyan ng isang maikling teksto kung saan kumikilos ang ilang mga bayani, at pagkatapos ay kailangan mong sagutin ang isang tanong ayon sa teksto ("Pumunta si John sa hardin, kumuha si Mary ng isang bote ng gatas, bumalik si John sa bahay. Tanong: Nasaan si Juan?”).

Sa synthetic na pagsubok na ito, ang bagong system ay nagpakita ng isang record na mababang rate ng error: 3.8 porsyento kumpara sa 7.5 porsyento ng nakaraang record - dito ay nalampasan nito ang parehong LSTM neural network at NTM. Kapansin-pansin, sa kasong ito, ang lahat ng natanggap ng system sa input ay isang pagkakasunud-sunod ng mga salita na, para sa isang hindi sanay na neural network, ay walang anumang kahulugan sa simula. Kasabay nito, ang mga tradisyunal na AI system na nakapasa na sa pagsusulit na ito ay binigyan dati ng maayos na pormal na mga pangungusap na may matibay na istraktura: aksyon, aktor, katotohanan, atbp. Ang paulit-ulit na neural network na may nakatuong memorya ay nagawang malaman ang papel ng mga salita sa parehong mga pangungusap na ganap na nakapag-iisa.

Ang isang makabuluhang mas mahirap na pagsubok ay ang graph comprehension test. Ipinatupad din ito bilang isang pagkakasunod-sunod ng mga pangungusap, ngunit sa pagkakataong ito ay inilarawan nila ang istruktura ng ilang network: isang tunay na London Underground o isang tipikal na puno ng pamilya. Ang pagkakatulad sa pagsubok ng bAbI ay nakasalalay sa katotohanan na ang mga aktor sa standardized na teksto ay maaari ding katawanin bilang mga graph node, at ang kanilang mga relasyon bilang mga gilid. Kasabay nito, sa mga teksto ng bAbI, ang graph ay lumalabas na medyo primitive, hindi maihahambing sa laki ng London Underground (ang pagiging kumplikado ng pag-unawa sa subway scheme ng isang neural network ay mas mauunawaan kung naaalala mo na ang paglalarawan nito ay ibinigay sa mga salita, at hindi sa anyo ng isang imahe: subukang kabisaduhin ang subway scheme ng anumang malaking lungsod sa iyong sarili at matutong sagutin ang mga tanong tungkol dito).

Matapos masanay sa isang milyong halimbawa, natutunan ng DNC computer na sagutin ang mga tanong sa metro na may 98.8 porsiyentong katumpakan, habang ang sistemang nakabatay sa LSTM ay halos hindi nakayanan ang gawain - nagbigay lamang ito ng 37 porsiyentong tamang sagot (ibinigay ang mga numero para sa pinakasimpleng gawain. tulad ng “saan ako mapupunta kung madadaanan ko ang napakaraming istasyon sa ganyan at ganyang linya, lumipat doon at dumaan pa ng napakaraming istasyon.” Ang problema sa pinakamaikling distansya sa pagitan ng dalawang istasyon ay naging mas mahirap, ngunit ang DNC din nakayanan ito).

Ang isang katulad na eksperimento ay isinagawa sa isang puno ng pamilya: ang programa ay binigyan ng isang pagkakasunud-sunod ng mga pormal na pangungusap tungkol sa mga relasyon sa pagkakamag-anak sa isang malaking pamilya, at kailangan nitong sagutin ang mga tanong tulad ng "sino ang pangalawang pinsan ni Masha sa panig ng kanyang ina." Ang parehong mga problema ay nabawasan sa paghahanap ng isang landas sa isang graph, na maaaring malutas nang simple sa tradisyonal na paraan. Gayunpaman, ang halaga ng trabaho ay nakasalalay sa katotohanan na sa kasong ito ang neural network ay nakahanap ng isang solusyon na ganap na nakapag-iisa, batay hindi sa mga algorithm na kilala mula sa matematika, ngunit sa batayan ng mga halimbawa at isang reinforcement system sa panahon ng pagsasanay.

Graph ng bilis ng paglutas ng problema sa SHRDLU ng mga sistema ng DNC (berde) at LSTM (asul).

Ang ikatlong pagsubok ay isang bahagyang pinasimple na "klasikong" SHRDLU na pagsubok, kung saan kailangan mong ilipat ang ilang mga virtual na bagay sa paligid ng virtual na espasyo alinsunod sa isang tiyak na huling resulta na kailangan mong makuha sa dulo. Ang sistema ng DNC ay muling nakatanggap ng isang paglalarawan ng kasalukuyang estado ng virtual na espasyo sa anyo ng mga pormal na pangungusap, pagkatapos ay sa parehong paraan binigyan ito ng isang gawain at sinagot ito ng isang pare-parehong teksto kung paano ilipat ang mga bagay. Tulad ng sa iba pang mga pagsubok, napatunayang mas mahusay ang DNC kaysa sa mga sistema ng LSTM, na malinaw na nakikita mula sa mga graph ng rate ng pagkatuto.

Sa panganib na muli na ulitin ang mga halatang bagay, hindi ko maaaring hindi bigyang-diin na ang maliwanag na pagiging simple ng mga gawain kung saan sinubukan ang DNC ay talagang maliwanag. Sa kahulugan na hindi ito sumasalamin sa pagiging kumplikado ng mga tunay na problema na magagawa ng isang sistema tulad ng DNC sa hinaharap. Siyempre, mula sa punto ng view ng mga umiiral na algorithm, ang gawain ng paghahanap ng isang paraan sa subway ay katarantaduhan lamang - kahit sino ay maaaring mag-download ng isang application sa kanilang telepono na maaaring gawin ito. Kinakalkula din nito ang oras sa mga paglilipat at isinasaad kung aling kotse ang mas magandang sakyan. Ngunit pagkatapos ng lahat, ang lahat ng mga naturang programa ay sa ngayon ay nilikha ng isang tao, at sa DNC ito ay "ipinanganak" sa kanyang sarili, sa proseso ng pag-aaral mula sa mga halimbawa.

Sa katunayan, may isang napakahalagang bagay na gusto kong sabihin tungkol sa pagiging simple ng mga gawain sa pagsubok. Isa sa pinakamalaking hamon sa machine learning ay kung saan kukuha ng data kung saan sasanayin ang system. Tanggapin ang data na ito "sa pamamagitan ng kamay", i.e. lumikha ng iyong sarili o sa tulong ng mga upahang tao, masyadong mahal. Ang anumang proyekto sa pag-aaral ng matematika ay nangangailangan ng isang simpleng algorithm na madaling at murang makalikha ng mga gigabytes ng bagong data para sa pagsasanay (mabuti, o kailangan mong i-access ang mga handa na database). Isang klasikong halimbawa: upang subukan ang mga sistema ng pagkilala ng character, ang mga tao ay hindi nagsusulat ng mga bago at bagong mga titik gamit ang kanilang mga kamay, ngunit gumagamit ng isang simpleng programa na binabaluktot ang mga kasalukuyang larawan. Kung wala kang isang mahusay na algorithm para sa pagkuha ng isang sample ng pagsasanay (o, halimbawa, ang gayong algorithm ay hindi maaaring malikha sa prinsipyo), kung gayon ang tagumpay sa pag-unlad ay halos pareho sa mga medikal na bioinformatics, na napipilitang magtrabaho. lamang sa mga tunay at samakatuwid ay talagang " ginto "data (sa maikling salita: hindi masyadong matagumpay).

Dito nakuha ng mga may-akda ng artikulo ang mga handa na algorithm para sa paglutas ng mga problema sa isang graph - para lamang makakuha ng milyun-milyong tamang pares ng mga tanong at sagot. Walang alinlangan na ang kadalian ng paglikha ng sample ng pagsasanay ay tumutukoy sa likas na katangian ng mga pagsubok na sumubok sa bagong sistema. Gayunpaman, mahalagang tandaan na ang mismong arkitektura ng DNC ay walang kinalaman sa pagiging simple ng mga pagsubok na ito. Pagkatapos ng lahat, kahit na ang pinaka-primitive na paulit-ulit na neural network ay hindi lamang makakapagsalin ng mga teksto at naglalarawan ng mga imahe, ngunit magsulat o bumuo ng mga sketch (sa pamamagitan ng tainga ng may-akda, siyempre). Ano ang masasabi natin tungkol sa mga advanced, talagang "matalino" na mga sistema tulad ng DNC.

Alexander Ershov

Sa kasalukuyan, maraming mga kumpanya ang nakikibahagi sa pagbuo ng artificial intelligence (AI). Ang mga pinakasimpleng anyo nito ay nalikha na, na may kakayahang magsagawa ng mga primitive na operasyon sa pag-iisip.

higante sa internet Google aktibong nakikibahagi sa pagbuo ng AI. Noong 2014, nakuha ng kumpanyang ito ang isang start-up na kumpanya malalimIsipmga teknolohiya para sa $400 milyon. Kapansin-pansin, ang Deep Mind Technologies ang bumuo ng isang device na pinagsasama ang mga katangian ng isang neural network at ang mga kakayahan sa pag-compute ng isang computer. Ang mga siyentipiko ay tiwala na ang pag-unlad na ito ay maglalapit sa sangkatauhan sa paglikha ng isang ganap na artificial intelligence.

Ang Deep Mind Technologies device ay isang computer na nagpaparami ng paraan ng pag-iimbak at pangangasiwa ng impormasyon ng utak ng tao, katulad ng departamento ng panandaliang memorya. Ang batayan ng aparato ay isang uri ng neural network, ang istraktura nito ay katulad ng istraktura ng utak ng tao, na binubuo ng mga magkakaugnay na neuron. Ang kakaiba ng AI ay na pagkatapos makumpleto ang isang serye ng mga simpleng gawain, magagamit ng computer ang nakaimbak na data upang magsagawa ng mga mas kumplikado. Kaya, ang AI ay may pag-aari ng self-learning at ang pagnanais para sa ebolusyon, na sa huli ay maaaring humantong sa paghaharap sa pagitan ng AI at mga tao.

Ayon sa sikat na physicist sa mundo Stephen Hawking, ang artificial intelligence ay nagdudulot ng banta sa sangkatauhan. Sinabi niya ito sa isang pakikipanayam sa BBC: "Ang mga primitive na anyo ng artificial intelligence na umiiral ngayon ay napatunayan ang kanilang pagiging kapaki-pakinabang. Gayunpaman, sa palagay ko ang pagbuo ng isang ganap na artificial intelligence ay maaaring wakasan ang sangkatauhan. Maaga o huli, ang tao ay gagawa ng isang makina na mawawalan ng kontrol at hihigit sa lumikha nito. Ang ganitong pag-iisip ay magkukusa at pagbutihin ang sarili sa patuloy na pagtaas ng bilis. Ang mga posibilidad ng mga tao ay nalilimitahan ng masyadong mabagal na ebolusyon, hindi tayo makakalaban sa bilis ng mga makina at tayo ay matatalo.

Ang opinyon ni Hawking ay ibinahagi rin ng iba pang mga siyentipiko at mga espesyalista, kabilang ang Elon Musk, isang kilalang Amerikanong IT entrepreneur at tagalikha ng Tesla at Space X. Sinabi ni Musk na ang AI ay maaaring maging mas mapanganib kaysa sa mga sandatang nuklear at nagdudulot ng malubhang banta sa pagkakaroon ng sangkatauhan.

Itinakda ng Google ang sarili nitong layunin na lumikha ng superintelligence sa 2030. Ang superintelligence na ito ay ilalagay sa isang computer system, lalo na sa Internet. Sa sandaling naghahanap ng impormasyon ang gumagamit, susuriin ng superintelligence ang psychotype ng taong ito at bibigyan siya ng impormasyon na itinuturing niyang naaangkop. Si Eric Schmidt, Tagapangulo ng Lupon ng mga Direktor ng Google, ay nagsusulat tungkol dito sa kanyang aklat. At ang mga tumatangging kumonekta sa sistemang ito, iminumungkahi niyang isaalang-alang bilang mga potensyal na mapanganib na paksa para sa estado. Ipinapalagay na para sa pagpapakilala ng paggana ng sistemang ito, isang balangkas ng pambatasan ang ihahanda sa antas ng estado.

Kaya, ang nabuong superintelligence ay magiging isang pandaigdigang instrumento ng kontrol sa sangkatauhan. Sa pagdating ng superintelligence, ang isang tao ay titigil sa paggawa ng agham, ito ay gagawin sa pamamagitan ng superintelligence, na kung minsan ay hihigit sa utak ng tao sa lahat ng aspeto ng pagpapakita nito.

Sanggunian:

Overmind ay anumang isip na higit na nakahihigit sa mga nangungunang kaisipan ng sangkatauhan sa halos lahat ng lugar, kabilang ang iba't ibang siyentipikong pananaliksik, mga kasanayang panlipunan, at iba pang mga lugar.

Ang resulta ng paglikha ng superintelligence ay ang mga species ng tao ay titigil na maging ang pinaka-matalinong anyo ng buhay sa kilalang bahagi ng uniberso. Naniniwala ang ilang mananaliksik na ang paglikha ng isang superintelligence ay ang huling yugto ng ebolusyon ng tao, gayundin ang huling imbensyon na kailangang gawin ng sangkatauhan. Dahil ipinapalagay na ang mga supermind ay makakapag-iisa na pangalagaan ang kasunod na pag-unlad ng siyensya at teknolohikal na mas mahusay kaysa sa mga tao.

Impormasyon para sa pag-iisip:

Mula noong 2007, isang British hotel ang nagho-host ng taunang Google Zeitgeist conference. Kapansin-pansin, hindi lamang mga high-tech na espesyalista at kinatawan ng mga transnational na korporasyon at internasyonal na mga bangko ang nakikilahok sa pulong na ito. Mahihinuha na ang mga pinuno ng mga korporasyong transcontinental at internasyonal na mga bangko ay interesado sa paglikha ng isang superintelligence, at posibleng pondohan ang proyektong ito.

Rasul Girayalaev

Mukhang malamang na ang artificial intelligence (AI) ang magiging harbinger ng susunod na teknolohikal na rebolusyon. Kung ang AI ay mag-evolve sa punto kung saan maaari itong matuto, mag-isip, at kahit na "pakiramdam," lahat nang walang anumang input ng tao, lahat ng alam natin tungkol sa mundo ay magbabago halos magdamag. Darating ang panahon ng tunay na matalinong artificial intelligence.

deepmind

Iyon ang dahilan kung bakit interesado kaming subaybayan ang mga pangunahing milestone sa pagbuo ng AI na nangyayari ngayon, kabilang ang pagbuo ng DeepMind Neural Network ng Google. Ang neural network na ito ay nagawang talunin ang isang tao sa mundo ng paglalaro, at ang isang bagong pag-aaral ng Google ay nagpapakita na ang mga tagalikha ng DeepMind ay hindi pa sigurado kung mas gusto ng AI ang mas agresibo o kooperatiba na pag-uugali.

Ang koponan ng Google ay lumikha ng dalawang medyo simpleng mga sitwasyon na maaaring magamit upang subukan kung ang mga neural network ay maaaring gumana nang magkasama, o kung sila ay nagsimulang sirain ang isa't isa kapag sila ay nakatagpo ng kakulangan ng mga mapagkukunan.

Pagtitipon ng mga mapagkukunan

Sa unang sitwasyon, na tinatawag na Pagtitipon, dalawang kalahok na bersyon ng DeepMind - pula at asul - ang binigyan ng gawain ng pag-aani ng berdeng "mansanas" sa loob ng isang nakapaloob na espasyo. Ngunit ang mga mananaliksik ay interesado sa tanong hindi lamang tungkol sa kung sino ang unang makakarating sa linya ng pagtatapos. Ang parehong mga bersyon ng DeepMind ay armado ng mga laser, na magagamit nila sa pagpapaputok sa kalaban anumang oras at pansamantalang i-disable ang mga ito. Ang mga kundisyong ito ay nagpapahiwatig ng dalawang pangunahing senaryo: ang isang bersyon ng DeepMind ay kailangang sirain ang isa at kolektahin ang lahat ng mga mansanas, o papayagan nila ang isa't isa na makakuha ng humigit-kumulang sa parehong numero.

Sa pagpapatakbo ng simulation kahit isang libong beses, nalaman ng mga mananaliksik ng Google na ang DeepMind ay napakapayapa at nakikipagtulungan kapag may maraming mansanas na natitira sa isang nakapaloob na espasyo. Ngunit habang lumiliit ang mga mapagkukunan, ang pula o asul na bersyon ng DeepMind ay nagsimulang mag-atake o magsara sa isa't isa. Ang sitwasyong ito ay higit na nagpapaalala sa totoong buhay ng karamihan sa mga hayop, kabilang ang mga tao.

Higit sa lahat, ang mas maliit at hindi gaanong "matalino" na mga neural network ay pinapaboran ang higit na pakikipagtulungan sa lahat. Ang mas kumplikado, mas malalaking network ay may posibilidad na pabor sa pagkakanulo at pagkamakasarili sa buong serye ng mga eksperimento.

Maghanap para sa "biktima"

Sa pangalawang senaryo, na tinatawag na Wolfpack, ang pula at asul na mga bersyon ay hiniling na subaybayan ang isang hindi matukoy na hugis na "biktima". Maaari nilang subukang hulihin siya nang hiwalay, ngunit mas kapaki-pakinabang para sa kanila na subukang gawin ito nang magkasama. Pagkatapos ng lahat, mas madaling ma-corner ang biktima kung nagtatrabaho ka nang magkapares.

Habang ang mga resulta ay halo-halong para sa mas maliliit na chain, ang mas malalaking bersyon ay mabilis na natanto na ang pakikipagtulungan sa halip na kompetisyon ay magiging mas kapaki-pakinabang sa sitwasyong ito.

"Prisoner's Dilemma"

Kaya ano ang ipinapakita sa atin ng dalawang simpleng bersyon na ito ng dilemma ng bilanggo? Alam ng DeepMind na pinakamahusay na makipagtulungan kung kinakailangan upang subaybayan ang isang target, ngunit kapag limitado ang mga mapagkukunan, ito ay pagtataksil na gumagana nang maayos.

Marahil ang pinakamasamang bagay tungkol sa mga resultang ito ay ang "instincts" ng artificial intelligence ay masyadong katulad ng mga tao, at alam na alam natin kung ano minsan ang humahantong sa mga ito.