DeepMind on avannut ilmaisen pääsyn virtuaalikoneen oppimisympäristöön. Google testasi DeepMind-tekoälyä "vangin dilemman" olosuhteissa Deep Mind -tekoäly

Google ostaa Lontoossa toimivan tekoälyyrityksen DeepMindin. Lähteet kutsuvat kaupan summaksi yli 500 miljoonaa dollaria. Googlen edustajat ovat virallisesti vahvistaneet oston.


Mitä Google antaa tälle hankinnalle? Ensinnäkin se antaa sille mahdollisuuden kilpailla muiden suurten teknologiayritysten kanssa, koska se keskittyy syvään oppimiseen. Esimerkiksi Facebook palkkasi äskettäin professori Yann LeKannan johtamaan omaa tekoälyn kehitystä. IBM:n Watson-supertietokone keskittyy tällä hetkellä nimenomaan syvään oppimiseen, ja Yahoo osti äskettäin LookFlow'n, valokuva-analytiikan startup-yrityksen, joka myös etenee tässä asiassa.

DeepMindin perustivat neurotieteilijä Demis Hassabis, entinen shakkiihmelapsi, Skype- ja Kazaa-kehittäjä Jaan Tallinn sekä tutkija Shane Legg.

Googlen siirto antaa teknologiajätin tiimille mahdollisuuden täyttää oman kenttänsä tekoälyasiantuntijoista, ja hankintaa valvoi henkilökohtaisesti Googlen toimitusjohtaja Larry Page, lähteet sanovat. Jos kaikki kolme perustajaa työskentelevät Googlelle, he liittyvät keksijä, yrittäjä, kirjailija ja futuristi Ray Kurzweil, josta tuli vuonna 2012 Googlen koneoppimis- ja kieltenkäsittelyosaston teknologiajohtaja.

Kurzweil totesi, että hän halusi rakentaa niin täydellisen hakukoneen, että siitä voisi tulla todellinen "kyberneettinen ystävä".

Aiemmin tässä kuussa tehdyn Nestin hankinnan jälkeen kriitikot ovat herättäneet huolta siitä, kuinka paljon käyttäjätietoja lähetetään Googlelle. Boston Dynamicsin osto viime kuussa johti myös keskusteluun siitä, että Google aikoo tulla robottivalmistajaksi.

Siitä huolimatta Google on hyvin valmistautunut hälventämään pelkoamme uusimmista hankinnoistaan. Lähteiden mukaan Google on päättänyt perustaa eettisen neuvoston, joka valvoo tekoälyn kehitystä DeepMindissä.

Yrityksen on kuitenkin selvennettävä, mitä DeepMindin tekoäly tarkalleen tekee. Yrityksen verkkosivuilla on tällä hetkellä aloitussivu, jonka kuvaus on suhteellisen epämääräinen ja jossa sanotaan, että DeepMind on "alan kärjessä oleva yritys" ja rakentaa tulevaisuuden algoritmeja simulaatioille, sähköiselle kaupankäynnille ja peleille. Startup työllistää joulukuussa 75 henkilöä.

Startupin pääsponsorit ovat Founders Fund ja Horizons Ventures. DeepMind perustettiin kolme vuotta sitten.

Vuonna 2012 Carnegie Mellon Instituten professori Larry Wasserman kirjoitti, että "startup rakentaa järjestelmän, joka ajattelee. Luulin, että se oli puhdasta hulluutta, kunnes sain selville, kuinka monta kuuluisaa miljardööriä oli sijoittanut yritykseen.

6. joulukuuta 2016 klo 00:41

DeepMind on avannut ilmaisen pääsyn virtuaalikoneen oppimisympäristöön

  • populaaritiede,
  • Tekoäly ,
  • Pelit ja pelikonsolit

Äskettäin DeepMind-divisioonan (nyt osa Alphabet holdinga) edustajat ilmoittivat tarjoavansa kehittäjille ilmaisen pääsyn DeepMind Lab -alustan lähdekoodiin. Tämä on Quake III:aan perustuva koneoppimispalvelu, joka on suunniteltu kouluttamaan tekoälyä. Nimittäin oppia ratkaisemaan ongelmia kolmiulotteisessa avaruudessa ilman ihmisen väliintuloa. Alusta perustuu Quake III Arena -pelimoottoriin.

Pelimaailmassa tekoäly saa pallon muodon ja kyvyn lentää tutkimalla ympäröivää tilaa. Kehittäjien asettama tavoite on opettaa tekoälyn heikko muoto "ymmärtämään" mitä tapahtuu ja reagoimaan erilaisiin virtuaalimaailman tilanteisiin. "Hahmo" voi suorittaa useita toimintoja, liikkua sokkelossa, tutkia välitöntä ympäristöä.

"Yritämme kehittää erilaisia ​​tekoälyn muotoja, jotka voivat suorittaa erilaisia ​​tehtäviä pelkkää pelimaailman tutkimisesta mihin tahansa toimiin ja niiden seurausten analysointiin", sanoo Shane Legg, DeepMindin johtava tutkija.

Asiantuntijat toivovat, että tekoäly pystyy oppimaan yrityksen ja erehdyksen avulla. Pelit ovat tässä tapauksessa melkein ihanteellisia. Esimerkiksi DeepMind käytti aiemmin (ja käyttää nyt) Atari-pelikonsolia opettaakseen hermoverkkoa suorittamaan pelin edellyttämiä peräkkäisiä toimintoja.

Mutta avoin, muunneltava 3D-maailma tarjoaa paljon lupaavamman ympäristön tekoälyoppimiselle kuin Atarin graafisesti yksinkertaisten lelujen litteä maailma. Tekoälyllä 3D-maailmassa on selkeitä tehtäviä, jotka muuttuvat peräkkäin siten, että jokaisen edellisen tehtävän ratkaisemisesta saatu kokemus osoittautuu tekoälylle hyödylliseksi seuraavan ratkaisemisen yhteydessä.

3D-ympäristön etuna on, että sen avulla voidaan kouluttaa tietokonejärjestelmiä vastaamaan erilaisiin ongelmiin, joita robotti voi odottaa todellisessa maailmassa. Tällaisen simulaattorin avulla teollisuusrobotit koulutetaan ilman ongelmia. Ja virtuaaliympäristön kanssa työskentely on joissain tapauksissa harvinaisen helpompaa kuin tällaisten järjestelmien "manuaalinen" kouluttaminen.

Samaan aikaan useimmat nykyaikaiset neuroverkot on kehitetty ratkaisemaan yksi tietty ongelma (esimerkiksi kuvankäsittely). Uuden alustan kehittäjät lupaavat, että se auttaa luomaan universaalin tekoälymuodon, joka pystyy ratkaisemaan suuren määrän tehtäviä. Lisäksi tässä tapauksessa tietokonejärjestelmä ei tarvitse ihmisten apua. Hermoverkon ympäristön luominen tapahtuu joka kerta satunnaisessa järjestyksessä.


Alustan kehittäjien mukaan se auttaa oppimaan tekoälyä samalla tavalla kuin lapset oppivat. "Kuinka sinä tai minä tutkimme maailmaa lapsena", eräs DeepMindin työntekijä antoi esimerkin. ”Koneoppimisyhteisö on aina ollut hyvin avoin. Julkaisemme noin 100 artikkelia vuodessa ja avaamme monet projekteistamme."

Nyt Google DeepMind on avannut DeepMind Labin lähdekoodin ja lähettänyt sen GitHubiin. Tämän ansiosta kuka tahansa voi ladata alustakoodin ja muokata sitä tarpeidensa mukaan. Projektin edustajat sanovat, että liitetyt asiantuntijat voivat luoda uusia pelitasoja itse lataamalla omia projektejaan GitHubiin. Tämä voi auttaa koko yhteisöä työskentelemään kohti tavoitettaan nopeammin ja tehokkaammin.

Tämä projekti ei ole ainoa DeepMindille. Viime kuussa sen edustajat solmivat yhteistyösopimuksen Activision Blizzard Inc:n kanssa. Tavoitteena on Starcraft 2:n ympäristö tekoälyn testausalueella. Ehkä muut pelinkehittäjät liittyvät pian tähän projektiin. Muuten, tekoäly peliympäristössä ei saa mitään etua viholliseen verrattuna, sillä se käyttää vain etenemiseen, kuten henkilö.

Käytännössä tämä tarkoittaa, että Googlen AI:n on ennakoitava, mitä vihollinen tekee kulloinkin, voidakseen vastata asianmukaisesti "vihollisen" toimiin. Lisäksi on tarpeen reagoida nopeasti siihen, mikä meni suunnitelman ulkopuolelle. Kaikki tämä testaa tekoälykyvyn seuraavaa tasoa. "Haluamme viime kädessä soveltaa näitä kykyjä globaalien ongelmien ratkaisemiseen", sanoi Demis Hassabis, Deepmindin perustaja (Google osti sen vuonna 2014, ja nyt tekoälyä kehitetään ostetun yrityksen saavutusten perusteella).

Tekoälyasiantuntijat antavat varovaisen hyväksynnän hankkeelle. "Hyvä asia on, että ne tarjoavat suuren määrän ympäristötyyppejä", sanoi OpenAI:n perustaja Ilja Sutskevar. "Mitä enemmän ympäristöjä järjestelmä kohtaa, sitä nopeammin se kehittyy", hän jatkoi. Itse asiassa 3D AI -oppimisympäristö sisältää yli 1000 tasoa ja ympäristötyyppiä.

Cambridgen professori Zoubin Gahrahmani uskoo, että DeepMind Lab ja muut tekoälyn kehitystä edistävät alustat edistävät edistystä antamalla tutkijoille pääsyn kehitettyyn ympäristöön. Kuitenkin hankkeet, kuten

Google Deepmind -tutkijat ovat julkistaneet uudenlaisen tekoälyjärjestelmän, niin sanotun Differentiable Neural Computerin, DNC:n. Järjestelmä yhdistää hermoverkkojen opittavuuden perinteisen tekoälyn deduktiivisiin kykyihin. Hänen kuvauksensa julkaistiin lehdessä Luonto, uusi teos on omistettu samassa lehden numerossa, lyhyt kertomus teoksesta löytyy Deepmind-blogista.

Yksinkertaisimmat hermoverkot ovat ennuste-, regressiojärjestelmä, jonka tehtävänä on sovittaa syötetiedot tiettyyn vastaukseen. Esimerkiksi yksinkertainen hermoverkko voi tunnistaa hahmot niiden kuvien perusteella. Tässä mielessä hermoverkkoa voidaan pitää matemaattisena funktiona ja differentioituvana funktiona. Neuraaliverkon kouluttaminen tällaiseen paradigmaan tarkoittaa tämän toiminnon optimointia tavallisilla matemaattisilla menetelmillä (käytettävissä oleva selitys harjoituksen tapahtumisesta voidaan lukea).

Kyky oppia datasta ilman suoraa ihmisen ohjelmointia on hermoverkkojen tärkein etu. Yksinkertaisimmat hermoverkot eivät kuitenkaan ole Turingin valmiita, eli ne eivät voi toimia kaikki asioita, joihin perinteiset algoritmiohjelmat pystyvät (mikä ei kuitenkaan tarkoita, etteikö ne voisi tehdä jonkin verran näistä asioista ovat parempia kuin ohjelmat). Yksi syy tähän on neuroverkkojen muistin puute, jolla voidaan toimia syötetiedoilla ja tallentaa paikallisia muuttujia.

Suhteellisen äskettäin ilmestyi monimutkaisempi neuroverkkotyyppi, jossa tämä haittapuoli poistettiin - niin sanotut toistuvat neuroverkot. Ne eivät vain tallenna tietoa oppimisen tilasta (neuronien painomatriisi), vaan myös tietoa itse hermosolujen aiemmasta tilasta. Tämän seurauksena tällaisen hermoverkon vasteeseen ei vaikuta pelkästään syöttödata ja painomatriisi, vaan myös sen välitön historia. Yksinkertaisin tämän tyyppinen hermoverkko voi esimerkiksi "älykkäästi" ennustaa tekstin seuraavan merkin: kouluttamalla hermoverkko sanakirjatiedoilla, on mahdollista saada vastaus "l" merkille "l", jos edelliset merkit olivat "h", "e" ja "l", mutta eri vastaus on "o", jos edelliset olivat "h", "e", "l" ja taas "l" (sana " hei” tulee näkyviin, katso liite).

Esimerkki toistuvasta neuroverkosta, jossa on yksi piilotettu kerros. Näet kuinka tietosyöte muuttaa verkon tilaa. Neuronien koulutetut painot tallennetaan matriiseihin W_xh, W_hy ja erityiseen matriisiin W_hh, joka on tyypillistä vain toistuville verkoille.

Andrej Karpathyn blogi

Toistuvat hermoverkot ovat osoittaneet itsensä erittäin hyvin luodessaan musiikkia tai tekstiä "tyylillä" jonkun kirjoittajan, jonka corpuksessa koulutus tapahtui, * ja viime aikoina järjestelmissä ja niin edelleen (esim.).

Muodollisesti jopa yksinkertaisimmat toistuvat hermoverkot ovat Turingin täydellisiä, mutta niiden tärkeä haittapuoli on muistin käytön implisiittinen luonne. Jos Turingin koneessa muisti ja laskin on erotettu toisistaan ​​(mikä mahdollistaa niiden arkkitehtuurien muuttamisen eri tavoin), niin toistuvissa hermoverkoissa, jopa edistyneimmissä niistä (LSTM), muistin käsittelyn ulottuvuus ja luonne on itse hermoverkon arkkitehtuuri määrittää.

Tämän LSTM-verkkojen luontaisen virheen korjaamiseksi DeepMindin tutkijat (jotka kaikki ovat osa uuden artikkelin kirjoittajien ryhmää) ehdottivat äskettäin niin kutsuttujen Neural Turing Machines (Neural Turing Machines) arkkitehtuuria. Siinä laskin ja muisti erotetaan, kuten tavanomaisissa Turing-koneissa, mutta samalla järjestelmä säilyttää differentioituvan funktion ominaisuudet, mikä tarkoittaa, että sitä voidaan harjoitella esimerkein (takaisinpropagation menetelmällä) eikä eksplisiittisesti. ohjelmoitu. Uusi järjestelmä, differentioituva neurotietokone eli DNC, perustuu samaan arkkitehtuuriin, mutta viestintä laskimen ja muistin välillä on järjestetty paljon joustavammin: se toteuttaa paitsi muistamisen, myös kontekstuaalisen tunnistamisen ja unohtamisen käsitteet. (erillinen osio on omistettu näiden kahden järjestelmän vertailulle). uusi artikkeli).

Yksinkertaisesti sanottuna DNC:n työ voidaan esittää seuraavasti. Järjestelmä koostuu laskimesta, jota voidaan toistaa lähes millä tahansa toistuvalla hermoverkolla, ja muistista. Laskimessa on erityiset moduulit muistiin pääsyä varten, ja muistin yläpuolella on erityinen "lisäosa" matriisin muodossa, joka tallentaa sen käyttöhistorian (lisätietoja alla). Muisti on N×M matriisi, jossa N i riviä ovat pääsoluja, joihin dataa kirjoitetaan (M-ulotteisten vektorien muodossa).


DNC-arkkitehtuuri: tietoviivat näytetään viivoina mustilla ja valkoisilla neliöillä - ne edustavat yksinkertaisesti positiivisia ja negatiivisia lukuja vektorissa. Voidaan nähdä, että lukemisessa on kolme työmoduulia C, B ja F, eli assosiatiivinen, suora ja käänteinen - nämä ovat tapoja verrata syöttövektoria muistisolun vektoriin. Muisti on N×M. Oikeanpuoleisin esittää kaavamaisesti N × N "metamuisti"-matriisia, joka tallentaa muistin pääsysekvenssin.

Suurin ero DNC:n ja siihen liittyvien järjestelmien välillä on muistinkäsittelyn luonne. Se toteuttaa samanaikaisesti useita uusia tai äskettäin nousevia käsitteitä: valikoiva huomio, kontekstuaalinen haku, assosiaatiolla muistaminen ja unohtaminen. Esimerkiksi jos tavalliset tietokoneet käyttävät muistia eksplisiittisesti ("kirjoita dataa sellaista ja sellaista soluun niin ja tuollainen"), niin DNC:ssä muodollisesti kirjoitus tapahtuu kaikissa soluissa kerralla, mutta uuden tiedon vaikutusaste vanha data määräytyy eri solujen huomion painon perusteella. Tällaista konseptin toteutusta kutsutaan "pehmeäksi huomioksi", ja juuri tämä tarjoaa erilaisuuden - järjestelmät, joissa on kova huomio, eivät täytä toiminnan jatkuvuuden vaatimusta, eikä niitä voida kouluttaa takaisinpropagation menetelmällä (käytetään vahvistusoppimista). Kuitenkin myös "pehmeä huomio" DNC-järjestelmässä toteutuu käytännössä "melko kovasti", joten muistimatriisin tietystä rivistä kirjoittamisesta tai lukemisesta voidaan silti puhua.

"Pehmeä huomio" on toteutettu järjestelmässä kolmessa tilassa. Ensimmäinen on kontekstuaalinen haku, jonka avulla DNC voi täydentää epätäydellisiä tietoja. Esimerkiksi kun jonkin jo muistiin tallennettua sekvenssiä muistuttava pala syötetään laskimen syötteeseen, kontekstihakutilassa oleva lukuoperaattori löytää kokoonpanosta lähimmän merkkijonon ja "sekoittaa" sen syötetietoihin.

Toiseksi muistin eri osien huomioiminen voidaan määrittää sen käyttöhistorian perusteella. Tämä historia tallennetaan N × N -matriisiin, jossa jokainen solu N(i,j) vastaa arvoa, joka on lähellä 1, jos rivin i merkintää seurasi rivin j merkintä (tai nolla, jos ei). Tämä "metamuistimatriisi" on yksi perustavanlaatuisista eroista uuden DNC-järjestelmän ja vanhan NTM:n välillä. Sen avulla järjestelmä voi "muistaa" peräkkäin tietolohkoja, jos ne esiintyvät usein toistensa yhteydessä.

Kolmanneksi erityinen huomiotila mahdollistaa järjestelmän ohjata kirjoittamista muistin eri riveille: tallentaa tärkeät ja poistaa merkityksettömät. Rivin katsotaan olevan sitä täynnä, mitä useammin se on kirjoitettu, mutta riviltä lukeminen voi päinvastoin johtaa sen asteittaiseen pyyhkimiseen. Tällaisen toiminnon hyödyllisyys osoittautuu ilmeiseksi yksinkertaisen toistimen DNC:hen perustuvan koulutuksen esimerkissä (hermoverkon on toistettava tarkasti sille syötetty datasarja). Tällaista tehtävää varten, jossa on mahdollisuus pyyhkiä, jopa pieni määrä muistia riittää toistamaan rajoittamattoman määrän tietoja. Tässä on huomioitava, että toistin on erittäin helppo toteuttaa ohjelmallisesti, mutta sen tekeminen hermoverkon pohjalta vahvistusoppimisen vuoksi on paljon vaikeampi tehtävä.


DNC:n perusteella toteutetun toistimen toimintakaavio. Aika kaaviossa kulkee vasemmalta oikealle. Yläosassa näkyvät tiedot, jotka ohjain vastaanottaa sisääntulossa: ensin kymmenen mustan palkin sarake (kaikki nollia), sitten useita valkoisia ja mustia, sitten taas useita valkoisia ja mustia, mutta eri järjestyksessä. Alla, jossa ohjaimen lähtö näytetään samalla tavalla, näemme ensin mustia palkkeja ja sitten melkein tarkan kuviosarjan toiston (sama valkoinen täplä kuin tulossa). Sitten uusi sekvenssi syötetään tuloon - viiveellä se toistetaan uudelleen lähdössä. Keskimmäinen kaavio näyttää, mitä muistisoluille tällä hetkellä tapahtuu. Vihreät neliöt - kirjoittaminen, vaaleanpunainen - lukeminen. Kylläisyys osoittaa "huomiovoiman" tähän soluun. Voidaan nähdä, kuinka järjestelmä kirjoittaa vastaanotetut kuviot ensin soluun 0, sitten 1 ja niin edelleen 4:ään asti. Seuraavassa vaiheessa järjestelmälle annetaan jälleen vain nollia (musta kenttä) ja siksi se lopettaa tallennuksen ja aloittaa toiston. kuvioita, lukemalla ne soluista samassa järjestyksessä, miten ne pääsivät perille. Aivan alareunassa näkyy muistin vapauttamista ohjaavien porttien aktivointi.

Alex Graves et al., Nature, 2016

Tiedemiehet testasivat tuloksena olevaa järjestelmää useissa testitehtävissä. Ensimmäinen näistä oli Facebookin tutkijoiden äskettäin kehitetty standardoitu tekstin ymmärtämisen testi, bAbI. Siinä AI-järjestelmälle annetaan lyhyt teksti, jossa jotkut sankarit toimivat, ja sitten sinun on vastattava kysymykseen tekstin mukaan ("John meni puutarhaan, Mary otti pullon maitoa, John palasi taloon . Kysymys: Missä John on?").

Tässä synteettisessä testissä uusi järjestelmä osoitti ennätysalhaisen virheprosentin: 3,8 prosenttia verrattuna 7,5 prosenttiin edellisestä ennätyksestä - tässä se ylitti sekä LSTM-hermoverkot että NTM:n. Mielenkiintoista on, että tässä tapauksessa kaikki, mitä järjestelmä vastaanotti tulona, ​​oli sanasarja, jolla ei ollut aluksi mitään järkeä kouluttamattomalle hermoverkolle. Samaan aikaan perinteisille tekoälyjärjestelmille, jotka ovat jo läpäisseet tämän testin, annettiin aiemmin hyvin muotoiltuja lauseita, joissa oli jäykkä rakenne: toiminta, näyttelijä, totuus jne. Toistuva neuroverkko, jossa oli oma muisti, pystyi selvittämään sanojen roolin samoissa lauseissa täysin itsenäisesti.

Merkittävästi vaikeampi testi oli graafin ymmärtäminen. Se toteutettiin myös lausesarjana, mutta tällä kertaa kuvattiin jonkin verkon rakennetta: aito Lontoon metro tai tyypillinen sukupuu. Samankaltaisuus bAbI-testin kanssa on siinä, että standardoidun tekstin toimijat voidaan esittää myös graafin solmuina ja niiden suhteet reunoiksi. Samanaikaisesti bAbI-teksteissä kaavio osoittautuu melko primitiiviksi, verrattomaksi Lontoon metron kokoon (metrokaavion ymmärtämisen monimutkaisuus hermoverkon avulla voidaan ymmärtää paremmin, jos muistat, että sen kuvaus on annettu sanoin, ei kuvan muodossa: yritä muistaa minkä tahansa suuren kaupungin metrosuunnitelma itse ja oppia vastaamaan sitä koskeviin kysymyksiin).

Miljoonan esimerkin opetuksen jälkeen DNC-tietokone oppi vastaamaan metrokysymyksiin 98,8 prosentin tarkkuudella, kun taas LSTM-pohjainen järjestelmä ei juurikaan selvinnyt tehtävästä - se antoi vain 37 prosenttia oikeita vastauksia (numerot on annettu yksinkertaisimman tehtävän kohdalla kuten "minne minä päädyn, jos ohitan niin monta asemaa tuolla ja sellaisella linjalla, siirryn sinne ja ohitan niin monta asemaa." Kahden aseman lyhimmän etäisyyden ongelma osoittautui vaikeammaksi, mutta myös DNC selviytyi siitä).

Samanlainen kokeilu suoritettiin sukupuulla: ohjelmalle annettiin sarja virallisia lauseita sukulaissuhteista suuressa perheessä, ja sen piti vastata kysymyksiin, kuten "kuka on Mashan toinen serkku äitinsä puolelta". Molemmat ongelmat rajoittuvat polun löytämiseen graafista, joka ratkaistaan ​​yksinkertaisesti perinteisellä tavalla. Työn arvo on kuitenkin siinä, että tässä tapauksessa hermoverkko löysi ratkaisun täysin itsenäisesti, ei matematiikasta tunnettujen algoritmien, vaan esimerkkien ja harjoittelun aikana tehdyn vahvistusjärjestelmän perusteella.

Kaavio SHRDLU-ongelman ratkaisunopeudesta DNC (vihreä) ja LSTM (sininen) järjestelmillä.

Kolmas testi oli hieman yksinkertaistettu "klassinen" SHRDLU-testi, jossa joudut siirtämään joitain virtuaalisia esineitä virtuaalitilassa tietyn lopputuloksen mukaisesti, joka sinun tulee saada lopussa. DNC-järjestelmä sai jälleen kuvauksen virtuaalitilan nykytilasta formalisoitujen lauseiden muodossa, sitten samalla tavalla sille annettiin tehtävä ja se vastasi johdonmukaisella tekstillä objektien siirtämisestä. Kuten muissakin testeissä, DNC osoittautui huomattavasti tehokkaammaksi kuin LSTM-järjestelmät, mikä näkyy selvästi oppimisnopeuskaavioista.

Siinä vaarassa, että toistan taas ilmeisiä asioita, en voi muuta kuin korostaa, että DNC:tä testattujen tehtävien näennäinen yksinkertaisuus on todella ilmeistä. Siinä mielessä, että se ei kuvasta niiden todellisten ongelmien monimutkaisuutta, joita DNC:n kaltainen järjestelmä pystyy käsittelemään tulevaisuudessa. Tietenkin olemassa olevien algoritmien näkökulmasta tien löytäminen metrossa on vain hölynpölyä - kuka tahansa voi ladata puhelimeensa sovelluksen, joka voi tehdä tämän. Se myös laskee ajan siirroilla ja osoittaa, mihin autoon on parempi istua. Mutta loppujen lopuksi kaikki tällaiset ohjelmat ovat toistaiseksi ihmisen luomia, ja DNC:ssä se "syntyy" itsestään, esimerkeistä oppimisen prosessissa.

Itse asiassa on yksi erittäin tärkeä asia, jonka haluan sanoa testitehtävien yksinkertaisuudesta. Yksi koneoppimisen suurimmista haasteista on, mistä saada dataa järjestelmän kouluttamiseksi. Vastaanota nämä tiedot "käsin", ts. luo itse tai palkattujen ihmisten avulla, liian kallista. Jokainen matematiikan oppimisprojekti tarvitsee yksinkertaisen algoritmin, joka voi helposti ja edullisesti luoda gigatavuja uutta dataa harjoittelua varten (no, tai sinun on käytettävä valmiita tietokantoja). Klassinen esimerkki: merkintunnistusjärjestelmien testaamiseen ihmiset eivät kirjoita uusia ja uusia kirjaimia käsin, vaan käyttävät yksinkertaista ohjelmaa, joka vääristää olemassa olevia kuvia. Jos sinulla ei ole hyvää algoritmia harjoitusnäytteen saamiseksi (tai esimerkiksi sellaista algoritmia ei periaatteessa voida luoda), niin kehityksen menestys on suunnilleen sama kuin lääketieteellisen bioinformatiikan, jotka joutuvat työskentelemään. vain oikeilla ja siitä oikeille "kultaisille" tiedoille (pähkinänkuoressa: ei kovin onnistunut).

Juuri täällä artikkelin kirjoittajat hyödynsivät valmiita algoritmeja graafisten ongelmien ratkaisemiseen - vain saadakseen miljoonia oikeita kysymys- ja vastauspareja. Ei ole epäilystäkään siitä, että koulutusnäytteen luomisen helppous määritti uutta järjestelmää testaavien testien luonteen. On kuitenkin tärkeää muistaa, että itse DNC-arkkitehtuurilla ei ole mitään tekemistä näiden testien yksinkertaisuuden kanssa. Loppujen lopuksi alkeellisimmatkin toistuvat neuroverkot eivät voi vain kääntää tekstejä ja kuvata kuvia, vaan myös kirjoittaa tai luoda luonnoksia (tietenkin kirjoittajan korvalla). Mitä voimme sanoa sellaisista kehittyneistä, todella "älykkäistä" järjestelmistä kuin DNC.

Aleksanteri Ershov

Tällä hetkellä monet yritykset harjoittavat tekoälyn (AI) kehittämistä. Sen yksinkertaisimmat muodot on jo luotu, jotka pystyvät suorittamaan primitiivisiä henkisiä operaatioita.

Internet jättiläinen Google aktiivisesti mukana tekoälyn kehittämisessä. Vuonna 2014 tämä yritys osti startup-yrityksen syväMieliteknologioita 400 miljoonalla dollarilla Mielenkiintoista on, että Deep Mind Technologies kehitti laitteen, joka yhdistää hermoverkon ominaisuudet ja tietokoneen laskentaominaisuudet. Tutkijat luottavat siihen, että tämä kehitys tuo ihmiskunnan lähemmäksi täysimittaisen tekoälyn luomista.

Deep Mind Technologies -laite on tietokone, joka toistaa tavan, jolla ihmisaivot tallentaa ja hallitsee tietoa, eli lyhytaikaisen muistin osastoa. Laitteen perustana on eräänlainen hermoverkko, jonka rakenne on samanlainen kuin ihmisaivojen rakenne, joka koostuu toisiinsa yhteydessä olevista neuroneista. Tekoälyn erikoisuus on, että suoritettuaan sarjan yksinkertaisia ​​tehtäviä tietokone voi käyttää tallennettuja tietoja monimutkaisempien tehtävien suorittamiseen. Tekoälyllä on siis itseoppimisen ja evoluution halun ominaisuus, mikä voi lopulta johtaa yhteenottoon tekoälyn ja ihmisten välillä.

Maailmankuulun fyysikon mukaan Stephen Hawking, tekoäly on uhka ihmiskunnalle. Hän totesi tämän BBC:n haastattelussa: "Nykyään olemassa olevat tekoälyn primitiiviset muodot ovat osoittautuneet hyödyllisiksi. Uskon kuitenkin, että täysin toimivan tekoälyn kehittäminen voisi lopettaa ihmiskunnan. Ennemmin tai myöhemmin ihminen luo koneen, joka karkaa käsistä ja ylittää luojansa. Sellainen mieli tekee aloitteen ja parantaa itseään jatkuvasti kiihtyvällä vauhdilla. Liian hidas evoluutio rajoittaa ihmisten mahdollisuuksia, emme pysty kilpailemaan koneiden nopeudella ja häviämme.

Hawkingin mielipiteen jakaa myös muut tutkijat ja asiantuntijat, mukaan lukien Elon Musk, tunnettu amerikkalainen IT-yrittäjä ja Teslan ja Space X:n luoja. Musk sanoi, että tekoäly voi olla vaarallisempi kuin ydinaseet ja muodostaa vakavan uhan ihmiskunnan olemassaololle.

Google on asettanut tavoitteekseen luoda superälyn vuoteen 2030 mennessä. Tämä superäly sulautetaan tietokonejärjestelmään, erityisesti Internetiin. Sillä hetkellä, kun käyttäjä etsii tietoa, superäly analysoi tämän henkilön psykotyypin ja antaa hänelle sopivaksi katsomansa tiedot. Googlen hallituksen puheenjohtaja Eric Schmidt kirjoittaa tästä kirjassaan. Ja ne, jotka kieltäytyvät muodostamasta yhteyttä tähän järjestelmään, hän ehdottaa, että ne ovat mahdollisesti vaarallisia valtiolle. Tämän järjestelmän toiminnan toteuttamiseksi oletetaan, että lainsäädäntökehys laaditaan valtion tasolla.

Siten kehittyneestä superälystä tulee globaali ihmiskunnan hallintaväline. Superälyn myötä ihminen lopettaa tieteen tekemisen, sen tekee superäly, joka toisinaan ylittää ihmisaivot kaikissa ilmenemismuodoissaan.

Viite:

Overmind on mikä tahansa älykkyys, joka on huomattavasti ylivoimainen ihmiskunnan johtaviin mieliin lähes kaikilla aloilla, mukaan lukien monenlaiset tieteellinen tutkimus, sosiaaliset taidot ja muut osa-alueet.

Yliälyn luomisen tulos on se, että ihmislaji lakkaa olemasta älykkäin elämänmuoto meille tuntemassamme maailmankaikkeuden osassa. Jotkut tutkijat uskovat, että superälyn luominen on ihmisen evoluution viimeinen vaihe, samoin kuin viimeinen keksintö, joka ihmiskunnan on tehtävä. Koska oletetaan, että supermielit pystyvät itsenäisesti huolehtimaan myöhemmästä tieteellisestä ja teknologisesta kehityksestä paljon tehokkaammin kuin ihmiset.

Tietoa pohdittavaksi:

Vuodesta 2007 lähtien brittiläinen hotelli on isännöinyt vuotuista Google Zeitgeist -konferenssia. Mielenkiintoista on, että tähän tapaamiseen eivät osallistu vain korkean teknologian asiantuntijat ja monikansallisten yritysten ja kansainvälisten pankkien edustajat. Voidaan päätellä, että mannertenvälisten yritysten ja kansainvälisten pankkien johtajat ovat kiinnostuneita superälyn luomisesta ja mahdollisesti rahoittavat tätä hanketta.

Rasul Girayalaev

Näyttää melko todennäköiseltä, että tekoäly (AI) on seuraavan teknologisen vallankumouksen ennakkoedustaja. Jos tekoäly kehittyy niin pitkälle, että se voi oppia, ajatella ja jopa "tuntea" ilman ihmisen panosta, kaikki mitä tiedämme maailmasta, muuttuu melkein yhdessä yössä. Todella älykkään tekoälyn aikakausi tulee.

syvää mieltä

Siksi olemme niin kiinnostuneita seuraamaan AI-kehityksen tärkeimpiä virstanpylväitä, joita tapahtuu nykyään, mukaan lukien Googlen DeepMind-hermoverkon kehitys. Tämä hermoverkko on jo pystynyt päihittämään ihmisen pelimaailmassa, ja Googlen uusi tutkimus osoittaa, että DeepMindin luojat eivät ole vielä varmoja siitä, suosivatko tekoälyt aggressiivisempaa vai yhteistyöhaluista käyttäytymistä.

Google-tiimi on luonut kaksi suhteellisen yksinkertaista skenaariota, joiden avulla voidaan testata, voivatko hermoverkot toimia yhdessä vai alkavatko ne tuhota toisiaan resurssien puutteessa.

Resurssien kerääminen

Ensimmäisessä tilanteessa, nimeltä Gathering, DeepMindin kaksi versiota - punainen ja sininen - saivat tehtäväkseen kerätä vihreitä "omenoita" suljetussa tilassa. Mutta tutkijoita kiinnosti kysymys paitsi siitä, kuka pääsee ensimmäisenä maaliin. Molemmat DeepMindin versiot oli aseistettu lasereilla, joilla ne saattoivat ampua vihollista milloin tahansa ja poistaa ne väliaikaisesti käytöstä. Nämä olosuhteet merkitsivät kahta pääskenaariota: yhden DeepMind-version olisi tuhottava toinen ja kerättävä kaikki omenat, tai ne antaisivat toisilleen suunnilleen saman määrän.

Suoritettuaan simulaation ainakin tuhat kertaa Googlen tutkijat havaitsivat, että DeepMind oli erittäin rauhallinen ja yhteistyöhaluinen, kun suljetussa tilassa oli jäljellä runsaasti omenoita. Mutta kun resurssit hupenivat, DeepMindin punainen tai sininen versio alkoi hyökätä tai sulkea toisiaan. Tämä tilanne muistuttaa suurelta osin useimpien eläinten, myös ihmisten, todellista elämää.

Vielä tärkeämpää on, että pienemmät ja vähemmän "älykkäät" neuroverkot suosivat suurempaa yhteistyötä kaikessa. Monimutkaisemmilla, suuremmilla verkostoilla oli taipumus suosia pettämistä ja itsekkyyttä koko koesarjan ajan.

Hae "uhri"

Toisessa skenaariossa, nimeltään Wolfpack, punaista ja sinistä versiota pyydettiin jäljittämään epämääräinen "uhrin" muoto. He voisivat yrittää saada hänet kiinni erikseen, mutta heidän olisi kannattavampaa yrittää tehdä se yhdessä. Loppujen lopuksi on paljon helpompaa saada uhri nurkkaan, jos työskentelet pareittain.

Pienten ketjujen tulokset olivat ristiriitaisia, mutta suuremmat versiot huomasivat nopeasti, että yhteistyöstä kilpailun sijaan olisi tässä tilanteessa enemmän hyötyä.

"Vangin dilemma"

Joten mitä nämä kaksi yksinkertaista versiota vangin dilemmasta osoittavat meille? DeepMind tietää, että on parasta tehdä yhteistyötä, jos kohde on tarpeen jäljittää, mutta kun resurssit ovat rajalliset, pettäminen toimii hyvin.

Ehkä pahinta näissä tuloksissa on se, että tekoälyn "vaistot" ovat liian samankaltaisia ​​ihmisten kanssa, ja tiedämme hyvin, mihin ne joskus johtavat.