DeepMind a deschis accesul gratuit la un mediu virtual de învățare automată. Google a testat inteligența artificială DeepMind în condițiile „dilemei prizonierilor” Inteligența artificială DeepMind

Google cumpără compania de inteligență artificială DeepMind din Londra. Sursele numesc valoarea tranzacției în peste 500 de milioane de dolari. Achiziția este confirmată oficial de reprezentanții Google.


Ce va oferi Google acestei achiziții? În primul rând, îi va permite să concureze cu alte companii mari de tehnologie, datorită concentrării sale pe învățarea profundă. Facebook, de exemplu, l-a angajat recent pe profesorul Yann LeKanna să-și conducă propria dezvoltare a inteligenței artificiale. Supercomputerul Watson de la IBM este în prezent axat în mod special pe învățarea profundă, iar Yahoo a achiziționat recent LookFlow, un startup de analiză foto, care avansează și el în această chestiune.

DeepMind a fost fondată de neurologul Demis Hassabis, fostul minune al șahului, dezvoltatorul Skype și Kazaa Jaan Tallinn și cercetătorul Shane Legg.

Mișcarea Google va permite echipei gigantului tehnologic să-și umple propriul domeniu de experți în inteligență artificială, iar achiziția a fost supravegheată personal de CEO-ul Google, Larry Page, spun sursele. Dacă toți cei trei fondatori lucrează pentru Google, se vor alătura inventatorului, antreprenorului, autorului și futuristului Ray Kurzweil, care în 2012 a devenit CTO al diviziei Google de învățare automată și procesare a limbii.

Kurzweil a declarat că a vrut să construiască un motor de căutare atât de perfect încât să poată deveni un adevărat „prieten cibernetic”.

De la achiziția Nest la începutul acestei luni, criticii și-au exprimat îngrijorarea cu privire la câte date despre utilizatori vor fi trimise la Google. Achiziționarea Boston Dynamics luna trecută a dus, de asemenea, la dezbateri că Google intenționează să devină un producător de roboți.

Cu toate acestea, Google este bine pregătit să ne aline temerile cu privire la ultimele sale achiziții. Surse spun că Google a decis să înființeze un consiliu de etică care va supraveghea dezvoltarea inteligenței artificiale în cadrul DeepMind.

Cu toate acestea, compania va trebui să clarifice ce face exact inteligența artificială a DeepMind. Site-ul companiei are în prezent o pagină de destinație cu o descriere relativ vagă care spune că DeepMind este „o companie de vârf” și construiește algoritmii viitorului pentru simulări, comerț electronic și jocuri. În decembrie, startup-ul are 75 de angajați.

Principalii sponsori ai startup-ului sunt Founders Fund și Horizons Ventures. DeepMind a fost fondată în urmă cu trei ani.

În 2012, profesorul de la Institutul Carnegie Mellon Larry Wasserman a scris că „o startup va construi un sistem care gândește. Am crezut că este o nebunie pură până când am aflat câți miliardari celebri au investit în companie.”

6 decembrie 2016 la 00:41

DeepMind a deschis accesul gratuit la un mediu virtual de învățare automată

  • Știința populară,
  • Inteligență artificială ,
  • Jocuri și console de jocuri

Recent, reprezentanții diviziei DeepMind (acum parte a holdingului Alphabet) au anunțat furnizarea accesului gratuit dezvoltatorilor la codul sursă al platformei DeepMind Lab. Acesta este un serviciu de învățare automată bazat pe Quake III, care este conceput pentru a antrena inteligența artificială. Și anume, să înveți cum să rezolvi problemele în spațiul tridimensional fără intervenția umană. Platforma se bazează pe motorul de joc Quake III Arena.

În lumea jocului, AI capătă forma unei sfere și abilitatea de a zbura, studiind spațiul înconjurător. Scopul stabilit de dezvoltatori este de a învăța o formă slabă de AI să „înțeleagă” ceea ce se întâmplă și să răspundă la diferite situații care apar în lumea virtuală. „Personajul” poate efectua o serie de acțiuni, se poate deplasa prin labirint, poate explora mediul imediat.

„Încercăm să dezvoltăm diverse forme de IA care pot îndeplini o serie de sarcini, de la simpla explorare a lumii jocului până la luarea oricăror acțiuni și analizarea consecințelor acestora”, spune Shane Legg, om de știință la DeepMind.

Experții speră că AI va putea învăța prin încercare și eroare. Jocurile în acest caz sunt aproape ideale. De exemplu, DeepMind a folosit anterior (și folosește acum) consola de jocuri Atari pentru a învăța rețeaua neuronală să efectueze acțiunile secvențiale necesare jocului.

Dar o lume 3D deschisă și modificabilă oferă un mediu mult mai promițător pentru învățarea AI decât lumea plată a jucăriilor simple din punct de vedere grafic de la Atari. AI în lumea 3D are sarcini clare care se schimbă secvențial, astfel încât experiența dobândită în rezolvarea fiecărei sarcini anterioare se dovedește a fi utilă pentru AI în cursul rezolvării următoarei.

Avantajul mediului 3D este că poate fi folosit pentru a antrena sisteme informatice pentru a răspunde diverselor probleme la care se poate aștepta un robot în lumea reală. Cu ajutorul unui astfel de simulator, roboții industriali sunt antrenați fără probleme. Și lucrul cu un mediu virtual este neobișnuit mai ușor în unele cazuri decât antrenamentul „manual” a unor astfel de sisteme.

În același timp, majoritatea rețelelor neuronale moderne sunt dezvoltate pentru a rezolva o problemă specifică (procesarea imaginii, de exemplu). Dezvoltatorii noii platforme promit că va ajuta la crearea unei forme universale de IA capabilă să rezolve un număr mare de sarcini. Mai mult, în acest caz, sistemul informatic nu va avea nevoie de ajutorul oamenilor. Generarea mediului pentru rețeaua neuronală are loc de fiecare dată într-o ordine aleatorie.


Potrivit dezvoltatorilor platformei, ajută să învețe AI în același mod în care învață copiii. „Cum am explorat lumea când eram copil”, a dat un exemplu un angajat DeepMind. „Comunitatea de învățare automată a fost întotdeauna foarte deschisă. Publicăm aproximativ 100 de articole pe an și deschidem multe dintre proiectele noastre.”

Acum Google DeepMind a deschis codul sursă al DeepMind Lab, l-a postat pe GitHub. Datorită acestui fapt, oricine poate descărca codul platformei și îl poate modifica în funcție de nevoile sale. Reprezentanții proiectului spun că specialiștii conectați pot crea noi niveluri de joc singuri, încărcându-și propriile proiecte pe GitHub. Acest lucru poate ajuta întreaga comunitate să lucreze spre obiectivul lor mai rapid și mai eficient.

Acest proiect nu este singurul pentru DeepMind. Luna trecută, reprezentanții săi au încheiat un acord de cooperare cu Activision Blizzard Inc. Scopul este mediul Starcraft 2 în terenul de testare pentru inteligența artificială. Poate că alți dezvoltatori de jocuri se vor alătura în curând acestui proiect. Apropo, AI în mediul de joc nu obține niciun avantaj asupra inamicului, folosindu-se doar pentru avansare, ca o persoană.

În practică, aceasta înseamnă că Google AI va trebui să prezică ce face inamicul la un moment dat pentru a răspunde în mod adecvat la acțiunile „inamicului”. În plus, va fi necesar să răspundem rapid la ceea ce a ieșit din plan. Toate acestea vor testa următorul nivel de capabilități ale inteligenței artificiale. „În cele din urmă, vrem să aplicăm aceste abilități pentru a rezolva probleme globale”, a spus Demis Hassabis, fondatorul Deepmind (care a fost cumpărat de Google în 2014, iar acum AI este dezvoltată pe baza realizărilor companiei achiziționate).

Experții în inteligență artificială acordă aprobare prudentă proiectului. „Lucrul bun este că oferă un număr mare de tipuri de mediu”, a spus co-fondatorul OpenAI Ilya Sutskevar. „Cu cât un sistem întâlnește mai multe medii, cu atât va evolua mai repede”, a continuat el. Într-adevăr, mediul de învățare 3D AI conține peste 1000 de niveluri și tipuri de mediu.

Zoubin Gahrahmani, profesor la Cambridge, consideră că DeepMind Lab și alte platforme pentru îmbunătățirea dezvoltării inteligenței artificiale conduc la progrese, permițând cercetătorilor să acceseze mediul dezvoltat. Cu toate acestea, proiecte precum

Cercetătorii Google Deepmind au dezvăluit un nou tip de sistem de inteligență artificială, așa-numitul Differentiable Neural Computer, DNC. Sistemul combină capacitatea de învățare a rețelelor neuronale cu abilitățile deductive ale AI tradiționale. Descrierea ei a fost publicată în revistă Natură, o nouă lucrare este dedicată în același număr al revistei, o scurtă relatare a lucrării poate fi găsită pe blogul Deepmind.

Cele mai simple rețele neuronale sunt un sistem de predicție, regresie, a cărui sarcină este de a potrivi datele de intrare cu un anumit răspuns. De exemplu, o simplă rețea neuronală poate recunoaște caractere pe baza imaginilor lor. În acest sens, rețeaua neuronală poate fi considerată ca o funcție matematică și o funcție diferențiabilă. A antrena o rețea neuronală într-o astfel de paradigmă înseamnă a optimiza această funcție folosind metode matematice standard (poate fi citită o explicație accesibilă a modului în care are loc antrenamentul).

Abilitatea de a învăța din date fără programare umană directă este principalul avantaj al rețelelor neuronale. Cu toate acestea, cele mai simple rețele neuronale nu sunt Turing complete, adică nu pot face toate lucruri de care sunt capabile programele algoritmice tradiționale (ceea ce, totuși, nu înseamnă că nu pot face niste dintre aceste lucruri sunt mai bune decât programele). Unul dintre motivele pentru aceasta este lipsa memoriei în rețelele neuronale, cu care poți opera cu date de intrare și stoca variabile locale.

Relativ recent, a apărut un tip mai complex de rețele neuronale, în care acest dezavantaj a fost eliminat - așa-numitele rețele neuronale recurente. Ele nu stochează doar informații despre starea de învățare (o matrice de greutăți a neuronilor), ci și informații despre starea anterioară a neuronilor înșiși. Ca urmare, răspunsul unei astfel de rețele neuronale este influențat nu numai de datele de intrare și de matricea de ponderi, ci și de istoricul său imediat. Cea mai simplă rețea neuronală de acest tip poate, de exemplu, să prezică „inteligent” următorul caracter din text: prin antrenarea rețelei neuronale pe datele din dicționar, va fi posibil să obțineți răspunsul „l” pentru caracterul „l” dacă caracterele anterioare au fost „h”, „e” și „l”, dar un răspuns diferit este „o”, dacă cele anterioare au fost „h”, „e”, „l” și din nou „l” (cuvântul „ salut” se va dovedi, vezi insert).

Un exemplu de rețea neuronală recurentă cu un strat ascuns. Puteți vedea cum fluxul de date modifică starea rețelei. Greutățile antrenate ale neuronilor sunt stocate în matricele W_xh, W_hy și într-o matrice specială W_hh, care este tipică doar pentru rețelele recurente.

Blogul Andrej Karpathy

Rețelele neuronale recurente s-au arătat foarte bine atunci când generează muzică sau text „în stilul” vreunui autor, pe al cărui corpus s-a desfășurat antrenamentul, în * și, recent, în sisteme și așa mai departe (de exemplu,).

Din punct de vedere formal, chiar și cele mai simple rețele neuronale recurente sunt Turing-complete, dar dezavantajul lor important constă în natura implicită a utilizării memoriei. Dacă în mașina Turing memoria și calculatorul sunt separate (ceea ce vă permite să le schimbați arhitectura în moduri diferite), atunci în rețelele neuronale recurente, chiar și în cele mai avansate dintre ele (LSTM), dimensiunea și natura manipulării memoriei este determinată de arhitectura rețelei neuronale în sine.

Pentru a corecta acest defect inerent al rețelelor LSTM, oamenii de știință de la DeepMind (toți fac parte din echipa de autori a noului articol) au propus recent arhitectura așa-numitelor Neural Turing Machines (Mașini Neural Turing). În ea, calculatorul și memoria sunt separate, ca în mașinile Turing convenționale, dar, în același timp, sistemul păstrează proprietățile unei funcții diferențiabile, ceea ce înseamnă că poate fi antrenat prin exemple (folosind metoda backpropagation) și nu în mod explicit. programat. Noul sistem, un computer neural diferențiabil sau DNC, se bazează pe aceeași arhitectură, dar comunicarea dintre calculator și memorie este organizată într-un mod mult mai flexibil: implementează conceptele nu numai de memorare, ci și de recunoaștere contextuală și uitare. (o secțiune separată este dedicată comparării celor două sisteme). articol nou).

Simplist, munca DNC poate fi reprezentată după cum urmează. Sistemul constă dintr-un calculator, care poate fi redat de aproape orice rețea neuronală recurentă și memorie. Calculatorul are module speciale pentru accesarea memoriei, iar deasupra memoriei se află un „add-on” special sub forma unei matrice care stochează istoricul utilizării acesteia (mai multe detalii mai jos). Memoria este o matrice N×M, unde N i rânduri sunt celulele principale în care sunt scrise datele (sub formă de vectori de dimensiune M).


Arhitectura DNC: liniile de date sunt afișate ca linii cu pătrate alb-negru - reprezintă pur și simplu numere pozitive și negative în vector. Se poate observa că citirea are trei module de lucru C, B și F, adică asociativ, direct și invers - acestea sunt modalități de a compara vectorul de intrare cu vectorul din celula de memorie. Memoria este N×M. Cel mai din dreapta arată schematic o matrice N×N „meta-memorie” care stochează secvența de acces la memorie.

Principala diferență dintre DNC și sistemele conexe este natura manipulării memoriei. Implementează simultan mai multe concepte noi sau recent apărute: atenție selectivă, căutare contextuală, reamintire prin asociere și uitare. De exemplu, dacă computerele obișnuite accesează memoria în mod explicit ("scrieți date așa și așa într-o celulă așa și așa"), atunci în DNC, formal vorbind, scrierea are loc în toate celulele simultan, cu toate acestea, gradul de influență al noilor date asupra datele vechi sunt determinate de ponderile atenției diferitelor celule. O astfel de implementare a conceptului se numește „atenție moale”, și tocmai aceasta oferă diferențiere - sistemele cu atenție dură nu satisfac cerința de continuitate a funcției și nu pot fi antrenate folosind metoda de backpropagation (se folosește învățarea prin întărire). Cu toate acestea, chiar și „atenția moale” în sistemul DNC este implementată „destul de greu” în practică, astfel încât se poate vorbi în continuare despre scriere sau citire dintr-un anumit rând al matricei de memorie.

„Atenția blândă” este implementată în sistem în trei moduri. Prima este căutarea contextuală, care permite DNC să completeze date incomplete. De exemplu, când o bucată dintr-o secvență asemănătoare cu cea stocată deja în memorie este introdusă în intrarea calculatorului, operatorul de citire în modul de căutare context găsește cel mai apropiat șir din compoziție și îl „amestecă” cu datele de intrare.

În al doilea rând, atenția acordată diferitelor părți ale memoriei poate fi determinată de istoria utilizării acesteia. Acest istoric este stocat într-o matrice N×N, unde fiecare celulă N(i,j) corespunde unui scor apropiat de 1 dacă intrarea din rândul i a fost urmată de o intrare din rândul j (sau zero dacă nu). Această „matrice de meta-memorie” este una dintre diferențele fundamentale dintre noul sistem DNC și vechiul NTM. Permite sistemului să „amintească” secvenţial blocuri de date dacă acestea apar frecvent în contextul celuilalt.

În al treilea rând, un mod special de atenție permite sistemului să controleze scrierea în diferite linii de memorie: să stocheze ceea ce este important și să șteargă ceea ce nu este important. Rândul este considerat a fi cu atât mai plin, cu cât a fost scris de mai multe ori, dar citirea din rând poate duce, dimpotrivă, la ștergerea sa treptată. Utilitatea unei astfel de funcții se dovedește a fi evidentă în exemplul de antrenament bazat pe DNC al unui repetor simplu (rețeaua neuronală trebuie să reproducă cu acuratețe secvența de date care i-a fost alimentată). Pentru o astfel de sarcină, cu posibilitatea de ștergere, chiar și o cantitate mică de memorie este suficientă pentru a repeta un număr nelimitat de date. De remarcat aici că este foarte ușor să implementezi un repetor în mod programatic, dar să o faci pe baza unei rețele neuronale, datorită învățării prin întărire, este o sarcină mult mai dificilă.


Schema de funcționare a unui repetor implementată pe baza DNC. Timpul pe diagramă merge de la stânga la dreapta. Partea de sus arată datele pe care controlerul le primește la intrare: mai întâi, o coloană de zece bare negre (toate zerouri), apoi mai multe albe și negre, apoi din nou mai multe albe și negre, dar într-o secvență diferită. Mai jos, unde ieșirea de la controler este afișată în același mod, vedem mai întâi bare negre și apoi o reproducere aproape exactă a secvenței de modele (aceeași pată albă ca pe intrare). Apoi, o nouă secvență este introdusă în intrare - cu o întârziere, este reprodusă din nou la ieșire. Graficul din mijloc arată ce se întâmplă în acest moment cu celulele de memorie. Pătrate verzi - scris, roz - citit. Saturația arată „puterea atenției” asupra acestei celule. Se poate vedea cum sistemul scrie mai întâi modelele primite în celula 0, apoi 1 și așa mai departe până la 4. La pasul următor, sistemul primește din nou doar zerouri (câmp negru) și, prin urmare, oprește înregistrarea și începe redarea. modele, citindu-le din celule în aceeași secvență, cum au ajuns acolo. În partea de jos, este afișată activarea porților care controlează eliberarea memoriei.

Alex Graves și colab., Nature, 2016

Oamenii de știință au testat sistemul rezultat în mai multe sarcini de testare. Primul dintre acestea a fost testul standardizat de înțelegere a textului recent dezvoltat, bAbI, dezvoltat de cercetătorii Facebook. În el, sistemul AI primește un text scurt în care unii eroi acționează, iar apoi trebuie să răspundeți la o întrebare conform textului („Ioan a mers în grădină, Mary a luat o sticlă de lapte, John s-a întors acasă Întrebare: Unde este Ioan?”).

În acest test sintetic, noul sistem a arătat o rată de eroare record scăzută: 3,8 la sută față de 7,5 la sută din recordul anterior - în acest sens a depășit atât rețelele neuronale LSTM, cât și NTM. Interesant, în acest caz, tot ceea ce a primit sistemul la intrare a fost o secvență de cuvinte care, pentru o rețea neuronală neantrenată, nu avea niciun sens la început. În același timp, sistemelor tradiționale de inteligență artificială care au trecut deja acest test au primit anterior propoziții bine formalizate, cu o structură rigidă: acțiune, actor, adevăr etc. Rețeaua neuronală recurentă cu memorie dedicată a reușit să descopere rolul cuvintelor. în aceleași propoziții complet independent.

Un test semnificativ mai dificil a fost testul de înțelegere grafică. A fost implementat și ca o secvență de propoziții, dar de data aceasta au descris structura unei rețele: un adevărat metrou londonez sau un arbore genealogic tipic. Asemănarea cu testul bAbI constă în faptul că actorii din textul standardizat pot fi reprezentați și ca noduri de graf, iar relațiile lor ca muchii. În același timp, în textele bAbI, graficul se dovedește a fi destul de primitiv, incomparabil cu dimensiunea metroului londonez (complexitatea înțelegerii schemei de metrou de către o rețea neuronală poate fi mai bine înțeleasă dacă vă amintiți că descrierea acestuia este dat în cuvinte și nu sub forma unei imagini: încercați să memorați singur schema de metrou a oricărui oraș mare și învățați să răspundeți la întrebări despre aceasta).

După ce a fost instruit pe un milion de exemple, computerul DNC a învățat să răspundă la întrebările de la metrou cu o precizie de 98,8%, în timp ce sistemul bazat pe LSTM aproape că nu a făcut față sarcinii - a dat doar 37% răspunsuri corecte (numerele sunt date pentru cea mai simplă sarcină). de genul „unde voi ajunge dacă trec de atâtea stații pe așa și așa linie, mă transfer acolo și trec de atâtea mai multe stații.” Problema celei mai scurte distanțe între două stații s-a dovedit a fi mai dificilă, dar și DNC i-a făcut față).

Un experiment similar a fost efectuat cu un arbore genealogic: programului i s-a dat o secvență de propoziții formale despre relațiile de rudenie într-o familie numeroasă și trebuia să răspundă la întrebări precum „cine este vărul secund al lui Masha de partea mamei ei”. Ambele probleme se reduc la găsirea unei căi pe un grafic, care este rezolvată destul de simplu în mod tradițional. Cu toate acestea, valoarea muncii constă în faptul că în acest caz rețeaua neuronală a găsit o soluție complet independent, bazată nu pe algoritmi cunoscuți din matematică, ci pe baza unor exemple și a unui sistem de întărire în timpul antrenamentului.

Graficul vitezei de rezolvare a problemei SHRDLU de către sistemele DNC (verde) și LSTM (albastru).

Al treilea test a fost un test SHRDLU „clasic” ușor simplificat, în care trebuie să mutați unele obiecte virtuale în spațiul virtual în conformitate cu un rezultat final specific pe care trebuie să-l obțineți la final. Sistemul DNC a primit din nou o descriere a stării actuale a spațiului virtual sub formă de propoziții formalizate, apoi în același mod i s-a dat o sarcină și i-a răspuns cu un text consistent despre modul de mutare a obiectelor. Ca și în alte teste, DNC s-a dovedit a fi semnificativ mai eficient decât sistemele LSTM, ceea ce se vede clar din graficele ratei de învățare.

Cu riscul de a repeta din nou lucruri evidente, nu pot decât să subliniez că aparenta simplitate a sarcinilor pe care a fost testat DNC ​​este cu adevărat evidentă. În sensul că nu reflectă complexitatea problemelor reale pe care un sistem precum DNC le va putea gestiona în viitor. Desigur, din punctul de vedere al algoritmilor existenți, sarcina de a găsi o cale în metrou este doar o prostie - oricine poate descărca pe telefon o aplicație care poate face acest lucru. De asemenea, calculează timpul cu transferurile și indică în ce mașină este mai bine să stai. Dar, până la urmă, toate astfel de programe au fost create până acum de o persoană, iar în DNC se „născ” de la sine, în procesul de învățare din exemple.

De fapt, există un lucru foarte important pe care vreau să-l spun despre simplitatea sarcinilor de testare. Una dintre cele mai mari provocări în învățarea automată este de unde să obțineți datele pe care să antrenezi sistemul. Primiți aceste date „de mână”, adică. creați-vă singur sau cu ajutorul angajaților, prea scump. Orice proiect de învățare a matematicii are nevoie de un algoritm simplu care poate crea cu ușurință și ieftin gigaocteți de date noi pentru antrenament (ei bine, sau trebuie să accesați baze de date gata făcute). Un exemplu clasic: pentru a testa sistemele de recunoaștere a caracterelor, oamenii nu scriu litere noi și noi cu mâinile, ci folosesc un program simplu care distorsionează imaginile existente. Dacă nu aveți un algoritm bun pentru obținerea unui eșantion de antrenament (sau, de exemplu, un astfel de algoritm nu poate fi creat în principiu), atunci succesul în dezvoltare va fi aproximativ același cu cel al bioinformaticii medicale, care sunt forțați să lucreze numai cu date reale și, prin urmare, cu adevărat „de aur” (pe scurt: nu foarte reușit).

Aici autorii articolului au fost la îndemână cu algoritmi gata pregătiți pentru rezolvarea problemelor pe un grafic - doar pentru a obține milioane de perechi corecte de întrebări și răspunsuri. Nu există nicio îndoială că ușurința creării unui eșantion de antrenament a determinat natura testelor care au testat noul sistem. Cu toate acestea, este important să ne amintim că arhitectura DNC în sine nu are nimic de-a face cu simplitatea acestor teste. La urma urmei, chiar și cele mai primitive rețele neuronale recurente nu pot doar să traducă texte și să descrie imagini, ci și să scrie sau să genereze schițe (după urechea autorului, desigur). Ce putem spune despre astfel de sisteme avansate, cu adevărat „inteligente”, precum DNC.

Alexandru Erșov

În prezent, multe companii sunt implicate în dezvoltarea inteligenței artificiale (AI). Au fost deja create cele mai simple forme ale sale, care sunt capabile să efectueze operații mentale primitive.

Gigantul internetului Google implicat activ în dezvoltarea IA. În 2014, această companie a achiziționat o companie nou-înființată adâncMintetehnologii pentru 400 de milioane de dolari.În mod interesant, Deep Mind Technologies a dezvoltat un dispozitiv care combină proprietățile unei rețele neuronale și capacitățile de calcul ale unui computer. Oamenii de știință sunt încrezători că această dezvoltare va aduce omenirea mai aproape de crearea unei inteligențe artificiale cu drepturi depline.

Dispozitivul Deep Mind Technologies este un computer care reproduce modul în care creierul uman stochează și gestionează informațiile, și anume departamentul de memorie pe termen scurt. Baza dispozitivului este un fel de rețea neuronală, a cărei structură este similară cu structura creierului uman, constând din neuroni interconectați. Particularitatea AI este că, după finalizarea unei serii de sarcini simple, computerul poate folosi datele stocate pentru a efectua altele mai complexe. Astfel, AI are proprietatea de auto-învățare și dorința de evoluție, care în cele din urmă poate duce la confruntare între AI și oameni.

Potrivit unui fizician de renume mondial Stephen Hawking, inteligența artificială reprezintă o amenințare la adresa umanității. El a declarat acest lucru într-un interviu acordat BBC: „Formele primitive de inteligență artificială care există astăzi și-au dovedit utilitatea. Cu toate acestea, cred că dezvoltarea unei inteligențe artificiale cu drepturi depline ar putea pune capăt rasei umane. Mai devreme sau mai târziu, omul va crea o mașină care va scăpa de sub control și va depăși creatorul ei. O astfel de minte va lua inițiativa și se va îmbunătăți într-un ritm din ce în ce mai mare. Posibilitățile oamenilor sunt limitate de evoluția prea lentă, nu vom putea concura cu viteza mașinilor și vom pierde.

Opinia lui Hawking este împărtășită și de alți oameni de știință și specialiști, inclusiv Elon Musk, un cunoscut antreprenor american de IT și creator al Tesla și Space X. Musk a spus că AI poate fi mai periculoasă decât armele nucleare și reprezintă o amenințare serioasă la adresa existenței omenirii.

Google și-a stabilit obiectivul de a crea o superinteligență până în 2030. Această superinteligență va fi încorporată într-un sistem informatic, în special în Internet. In momentul in care utilizatorul cauta informatii, superinteligenta va analiza psihotipul acestei persoane si ii va oferi informatiile pe care le considera potrivite. Eric Schmidt, președintele Consiliului de administrație al Google, scrie despre acest lucru în cartea sa. Iar pe cei care refuză să se conecteze la acest sistem, el își propune să îi considere drept subiecte potențial periculoase pentru stat. Se presupune că pentru implementarea funcționării acestui sistem se va pregăti un cadru legislativ la nivel de stat.

Astfel, superinteligența dezvoltată va deveni un instrument global de control asupra umanității. Odată cu apariția superinteligenței, o persoană va înceta să mai facă știință, aceasta va fi făcută de superinteligență, care uneori va depăși creierul uman în toate aspectele manifestării sale.

Referinţă:

Supraminte este orice inteligență care este substanțial superioară minților conducătoare ale omenirii în aproape fiecare domeniu, inclusiv o varietate de cercetări științifice, abilități sociale și alte domenii.

Rezultatul creării superinteligenței va fi că specia umană va înceta să mai fie cea mai inteligentă formă de viață din partea cunoscută a universului. Unii cercetători cred că crearea unei superinteligențe este ultima etapă a evoluției umane, precum și ultima invenție pe care umanitatea va trebui să o facă. Pentru că se presupune că supramințile vor fi capabile să se ocupe independent de progresul științific și tehnologic ulterior mult mai eficient decât oamenii.

Informații pentru gândire:

Din 2007, un hotel din Marea Britanie a găzduit conferința anuală Google Zeitgeist. Interesant este că la această întâlnire iau parte nu numai specialiști high-tech și reprezentanți ai corporațiilor transnaționale și băncilor internaționale. Se poate concluziona că liderii corporațiilor transcontinentale, băncilor internaționale sunt interesați să creeze o superintelligence și, eventual, să finanțeze acest proiect.

Rasul Girayalaev

Se pare destul de probabil că inteligența artificială (AI) va fi prevestitorul următoarei revoluții tehnologice. Dacă AI se dezvoltă până la punctul în care poate învăța, gândi și chiar „simți”, totul fără nicio intervenție umană, tot ceea ce știm despre lume se va schimba aproape peste noapte. Va veni epoca inteligenței artificiale cu adevărat inteligente.

minte adâncă

De aceea, suntem atât de interesați să urmărim etapele majore ale dezvoltării AI care au loc astăzi, inclusiv dezvoltarea Rețelei neuronale DeepMind de la Google. Această rețea neuronală a reușit deja să învingă un om în lumea jocurilor, iar un nou studiu realizat de Google arată că creatorii DeepMind nu sunt încă siguri dacă AI preferă un comportament mai agresiv sau cooperant.

Echipa Google a creat două scenarii relativ simple care pot fi folosite pentru a testa dacă rețelele neuronale pot funcționa împreună sau dacă încep să se distrugă reciproc atunci când se confruntă cu o lipsă de resurse.

Adunarea resurselor

În timpul primei situații, numită Gathering, celor două versiuni participante de DeepMind - roșu și albastru - li sa dat sarcina de a recolta „meri” verzi într-un spațiu închis. Dar cercetătorii au fost interesați de întrebarea nu numai despre cine va ajunge primul la linia de sosire. Ambele versiuni ale DeepMind erau înarmate cu lasere, pe care le puteau folosi pentru a trage în inamic în orice moment și pentru a le dezactiva temporar. Aceste condiții implicau două scenarii principale: o versiune a DeepMind ar trebui să o distrugă pe cealaltă și să colecteze toate merele, sau ar permite reciproc să obțină aproximativ același număr.

Rulând simularea de cel puțin o mie de ori, cercetătorii Google au descoperit că DeepMind a fost foarte pașnic și cooperant atunci când au rămas o mulțime de mere într-un spațiu închis. Dar, pe măsură ce resursele s-au redus, fie versiunea roșie, fie cea albastră a DeepMind a început să se atace sau să se închidă reciproc. Această situație amintește în mare măsură de viața reală a majorității animalelor, inclusiv a oamenilor.

Mai important, rețelele neuronale mai mici și mai puțin „inteligente” au favorizat o colaborare mai mare în orice. Rețelele mai complexe și mai mari au avut tendința de a favoriza trădarea și egoismul pe parcursul serii de experimente.

Cauta "victima"

În cel de-al doilea scenariu, numit Wolfpack, versiunile roșii și albastre au fost rugate să urmărească o formă nedescriptivă de „victimă”. Ar putea încerca să o prindă separat, dar ar fi mai profitabil pentru ei să încerce să o facă împreună. La urma urmei, este mult mai ușor să încolțiți victima dacă lucrați în perechi.

În timp ce rezultatele au fost amestecate pentru lanțurile mai mici, versiunile mai mari și-au dat seama rapid că colaborarea, mai degrabă decât competiția, ar fi mai benefică în această situație.

"Dilema prizonierului"

Deci, ce ne arată aceste două versiuni simple ale dilemei prizonierului? DeepMind știe că cel mai bine este să cooperezi dacă este necesar să urmărești o țintă, dar când resursele sunt limitate, trădarea funcționează bine.

Poate cel mai rău lucru la aceste rezultate este că „instinctele” inteligenței artificiale sunt prea asemănătoare cu cele umane și știm bine la ce duc uneori.