DeepMind telah membuka akses gratis ke lingkungan pembelajaran mesin virtual. Google menguji kecerdasan buatan DeepMind dalam kondisi "dilema tahanan" Kecerdasan buatan DeepMind

Google membeli perusahaan kecerdasan buatan yang berbasis di London, DeepMind. Sumber menyebut jumlah transaksi di lebih dari 500 juta dolar. Pembelian secara resmi dikonfirmasi oleh perwakilan di Google.


Apa yang akan Google berikan pada akuisisi ini? Pertama, ini akan memungkinkannya bersaing dengan perusahaan teknologi besar lainnya, berkat fokusnya pada pembelajaran mendalam. Facebook, misalnya, baru-baru ini mempekerjakan Profesor Yann LeKanna untuk memimpin pengembangan kecerdasan buatannya sendiri. Superkomputer IBM Watson saat ini secara khusus berfokus pada pembelajaran mendalam, dan Yahoo baru-baru ini mengakuisisi LookFlow, sebuah startup analitik foto, yang juga bergerak maju dalam hal ini.

DeepMind didirikan oleh ahli saraf Demis Hassabis, mantan ahli catur, pengembang Skype dan Kazaa Jaan Tallinn, dan peneliti Shane Legg.

Langkah oleh Google akan memungkinkan tim raksasa teknologi untuk mengisi bidang ahli kecerdasan buatannya sendiri, dan akuisisi tersebut secara pribadi diawasi oleh CEO Google Larry Page, kata sumber. Jika ketiga pendiri bekerja untuk Google, mereka akan bergabung dengan penemu, pengusaha, penulis, dan futuris Ray Kurzweil, yang pada 2012 menjadi CTO divisi pembelajaran mesin dan pemrosesan bahasa Google.

Kurzweil menyatakan bahwa dia ingin membangun mesin pencari yang begitu sempurna sehingga bisa menjadi "teman cybernetic" yang sesungguhnya.

Sejak akuisisi Nest awal bulan ini, para kritikus telah menyuarakan keprihatinan tentang berapa banyak data pengguna yang akan dikirim ke Google. Pembelian Boston Dynamics bulan lalu juga menimbulkan perdebatan bahwa Google berencana menjadi pembuat robot.

Namun demikian, Google sangat siap untuk menghilangkan ketakutan kami tentang akuisisi terbarunya. Sumber mengatakan bahwa Google telah memutuskan untuk membentuk dewan etika yang akan mengawasi pengembangan kecerdasan buatan dalam DeepMind.

Namun, perusahaan harus mengklarifikasi apa yang sebenarnya dilakukan oleh kecerdasan buatan DeepMind. Situs web perusahaan saat ini memiliki halaman arahan dengan deskripsi yang relatif kabur yang mengatakan bahwa DeepMind adalah "perusahaan di ujung tombak" dan sedang membangun algoritme masa depan untuk simulasi, e-niaga, dan game. Hingga Desember, startup ini memiliki 75 karyawan.

Sponsor utama dari startup ini adalah Founders Fund dan Horizons Ventures. DeepMind didirikan tiga tahun lalu.

Pada 2012, profesor Carnegie Mellon Institute Larry Wasserman menulis bahwa “sebuah startup akan membangun sistem yang berpikir. Saya pikir itu murni kegilaan sampai saya mengetahui berapa banyak miliarder terkenal yang telah berinvestasi di perusahaan tersebut.”

6 Desember 2016 pukul 00:41

DeepMind telah membuka akses gratis ke lingkungan pembelajaran mesin virtual

  • Ilmu pengetahuan populer,
  • Kecerdasan buatan ,
  • Game dan konsol game

Baru-baru ini, perwakilan dari divisi DeepMind (sekarang bagian dari induk Alphabet) mengumumkan penyediaan akses gratis ke pengembang ke kode sumber platform DeepMind Lab. Ini adalah layanan pembelajaran mesin berbasis Quake III, yang dirancang untuk melatih kecerdasan buatan. Yakni, mempelajari cara menyelesaikan masalah dalam ruang tiga dimensi tanpa campur tangan manusia. Platform ini didasarkan pada mesin game Quake III Arena.

Di dalam dunia game, AI mendapatkan bentuk bola dan kemampuan untuk terbang, mempelajari ruang di sekitarnya. Tujuan yang ditetapkan oleh para pengembang adalah untuk mengajarkan bentuk AI yang lemah untuk "memahami" apa yang terjadi dan menanggapi berbagai situasi yang terjadi di dunia maya. "Karakter" dapat melakukan sejumlah tindakan, bergerak melalui labirin, menjelajahi lingkungan terdekat.

“Kami mencoba mengembangkan berbagai bentuk AI yang dapat melakukan berbagai tugas mulai dari sekadar menjelajahi dunia game hingga mengambil tindakan apa pun dan menganalisis konsekuensinya,” kata Shane Legg, Kepala Ilmuwan di DeepMind.

Para ahli berharap AI akan dapat belajar dengan coba-coba. Permainan dalam hal ini hampir ideal. Misalnya, DeepMind sebelumnya menggunakan (dan sedang menggunakan sekarang) konsol game Atari untuk mengajarkan jaringan saraf untuk melakukan tindakan berurutan yang diperlukan untuk game.

Tetapi dunia 3D yang terbuka dan dapat dimodifikasi menyediakan lingkungan yang jauh lebih menjanjikan untuk pembelajaran AI daripada dunia datar mainan Atari yang sederhana secara grafis. AI di dunia 3D memiliki tugas yang jelas yang berubah secara berurutan sedemikian rupa sehingga pengalaman yang diperoleh dalam menyelesaikan setiap tugas sebelumnya ternyata berguna bagi AI dalam menyelesaikan tugas berikutnya.

Keuntungan dari lingkungan 3D adalah dapat digunakan untuk melatih sistem komputer untuk merespon berbagai masalah yang dapat diharapkan oleh robot di dunia nyata. Dengan bantuan simulator seperti itu, robot industri dilatih tanpa masalah. Dan bekerja dengan lingkungan virtual biasanya lebih mudah dalam beberapa kasus daripada melatih sistem semacam itu "secara manual".

Pada saat yang sama, sebagian besar jaringan saraf modern dikembangkan untuk memecahkan satu masalah tertentu (misalnya, pemrosesan gambar). Pengembang platform baru ini berjanji akan membantu menciptakan bentuk AI universal yang mampu menyelesaikan banyak tugas. Apalagi dalam hal ini, sistem komputer tidak akan membutuhkan bantuan orang. Generasi lingkungan untuk jaringan saraf terjadi setiap kali dalam urutan acak.


Menurut pengembang platform, membantu mempelajari AI dengan cara yang sama seperti anak-anak belajar. “Bagaimana Anda atau saya menjelajahi dunia sebagai seorang anak,” salah satu karyawan DeepMind memberi contoh. “Komunitas pembelajaran mesin selalu sangat terbuka. Kami menerbitkan sekitar 100 artikel setahun, dan kami membuka banyak proyek kami sebagai sumber terbuka."

Sekarang Google DeepMind telah membuka kode sumber DeepMind Lab, mempostingnya di GitHub. Berkat ini, siapa pun dapat mengunduh kode platform dan memodifikasinya agar sesuai dengan kebutuhan mereka. Perwakilan proyek mengatakan bahwa spesialis yang terhubung dapat membuat level permainan baru sendiri dengan mengunggah proyek mereka sendiri ke GitHub. Ini dapat membantu seluruh komunitas bekerja menuju tujuan mereka lebih cepat dan lebih efisien.

Proyek ini bukan satu-satunya untuk DeepMind. Bulan lalu, perwakilannya menandatangani perjanjian kerja sama dengan Activision Blizzard Inc. Tujuannya adalah lingkungan Starcraft 2 di tempat pengujian kecerdasan buatan. Mungkin pengembang game lain akan segera bergabung dengan proyek ini. Omong-omong, AI di lingkungan game tidak mendapatkan keuntungan apa pun dari musuh, hanya digunakan untuk kemajuan, seperti seseorang.

Dalam praktiknya, ini berarti bahwa Google AI perlu memprediksi apa yang dilakukan musuh pada waktu tertentu untuk merespons tindakan "musuh" secara memadai. Selain itu, perlu untuk segera menanggapi apa yang tidak sesuai dengan rencana. Semua ini akan menguji tingkat kemampuan kecerdasan buatan berikutnya. “Pada akhirnya, kami ingin menerapkan kemampuan ini untuk memecahkan masalah global,” kata Demis Hassabis, pendiri Deepmind (yang dibeli oleh Google pada tahun 2014, dan sekarang AI sedang dikembangkan berdasarkan pencapaian perusahaan yang diakuisisi).

Pakar AI memberikan persetujuan hati-hati untuk proyek tersebut. “Hal baiknya adalah mereka menyediakan sejumlah besar tipe lingkungan,” kata salah satu pendiri OpenAI, Ilya Sutskevar. "Semakin banyak lingkungan yang dihadapi sistem, semakin cepat ia akan berkembang," lanjutnya. Memang, lingkungan belajar AI 3D berisi lebih dari 1000 level dan tipe lingkungan.

Zoubin Gahrahmani, profesor di Cambridge, percaya bahwa DeepMind Lab dan platform lain untuk meningkatkan pengembangan kecerdasan buatan mendorong kemajuan dengan memungkinkan para peneliti mengakses lingkungan yang dikembangkan. Namun, proyek seperti

Peneliti Google Deepmind telah meluncurkan jenis baru dari sistem kecerdasan buatan, yang disebut Differentiable Neural Computer, DNC. Sistem ini menggabungkan kemampuan belajar jaringan saraf dengan kemampuan deduktif AI tradisional. Deskripsinya diterbitkan di majalah Alam, sebuah karya baru dikhususkan dalam edisi jurnal yang sama, menceritakan kembali karya tersebut secara singkat dapat ditemukan di blog Deepmind.

Jaringan saraf paling sederhana adalah sistem prediksi, regresi, yang tugasnya adalah mencocokkan data input dengan jawaban tertentu. Misalnya, jaringan saraf sederhana dapat mengenali karakter berdasarkan gambarnya. Dalam pengertian ini, jaringan saraf dapat dianggap sebagai fungsi matematika, dan fungsi yang dapat dibedakan. Untuk melatih jaringan saraf dalam paradigma seperti itu berarti mengoptimalkan fungsi ini menggunakan metode matematika standar (penjelasan yang dapat diakses tentang bagaimana pelatihan terjadi dapat dibaca).

Kemampuan untuk belajar dari data tanpa pemrograman manusia langsung adalah keuntungan utama dari jaringan saraf. Namun, jaringan saraf paling sederhana tidak Turing lengkap, yaitu mereka tidak dapat melakukannya semua hal-hal yang mampu dilakukan oleh program algoritmik tradisional (yang, bagaimanapun, tidak berarti bahwa mereka tidak dapat melakukannya beberapa hal-hal ini lebih baik daripada program). Salah satu alasannya adalah kurangnya memori di jaringan saraf, yang dengannya Anda dapat beroperasi dengan data input dan menyimpan variabel lokal.

Relatif baru-baru ini, jenis jaringan saraf yang lebih kompleks muncul, di mana kelemahan ini dihilangkan - yang disebut jaringan saraf berulang. Mereka tidak hanya menyimpan informasi tentang keadaan belajar (matriks bobot neuron), tetapi juga informasi tentang keadaan sebelumnya dari neuron itu sendiri. Akibatnya, respons jaringan saraf semacam itu tidak hanya dipengaruhi oleh data input dan matriks bobot, tetapi juga oleh riwayat langsungnya. Jaringan saraf paling sederhana dari jenis ini dapat, misalnya, "secara cerdas" memprediksi karakter berikutnya dalam teks: dengan melatih jaringan saraf pada data kamus, dimungkinkan untuk mendapatkan jawaban "l" untuk karakter "l" jika karakter sebelumnya adalah "h", "e" dan "l", tetapi jawaban yang berbeda adalah "o", jika yang sebelumnya adalah "h", "e", "l" dan lagi "l" (kata " halo” akan berubah, lihat sisipan).

Contoh jaringan saraf berulang dengan satu lapisan tersembunyi. Anda dapat melihat bagaimana umpan data mengubah status jaringan. Bobot terlatih neuron disimpan dalam matriks W_xh, W_hy dan matriks khusus W_hh, yang khas hanya untuk jaringan berulang.

Blog Andrej Karpathy

Jaringan saraf berulang telah menunjukkan diri mereka dengan sangat baik ketika menghasilkan musik atau teks "dalam gaya" dari beberapa penulis, pada korpus tempat pelatihan berlangsung, di * dan, baru-baru ini, dalam sistem dan sebagainya (misalnya,).

Berbicara secara formal, bahkan jaringan saraf berulang yang paling sederhana adalah Turing-complete, tetapi kelemahan penting mereka terletak pada sifat implisit dari penggunaan memori. Jika di mesin Turing memori dan kalkulator dipisahkan (yang memungkinkan Anda untuk mengubah arsitekturnya dengan cara yang berbeda), maka dalam jaringan saraf berulang, bahkan yang paling canggih (LSTM), dimensi dan sifat penanganan memori adalah ditentukan oleh arsitektur jaringan saraf itu sendiri.

Untuk memperbaiki kekurangan yang melekat pada jaringan LSTM ini, para ilmuwan di DeepMind (semuanya adalah bagian dari tim penulis artikel baru) baru-baru ini mengusulkan arsitektur yang disebut Neural Turing Machines (Mesin Turing Neural). Di dalamnya, kalkulator dan memori dipisahkan, seperti pada mesin Turing konvensional, tetapi pada saat yang sama, sistem mempertahankan sifat-sifat fungsi yang dapat dibedakan, yang berarti dapat dilatih dengan contoh (menggunakan metode propagasi balik) dan tidak secara eksplisit diprogram. Sistem baru, komputer saraf terdiferensiasi, atau DNC, didasarkan pada arsitektur yang sama, tetapi komunikasi antara kalkulator dan memori diatur dengan cara yang jauh lebih fleksibel: sistem ini mengimplementasikan konsep tidak hanya menghafal, tetapi juga pengenalan kontekstual dan lupa. (bagian terpisah dikhususkan untuk membandingkan dua sistem).Artikel baru).

Secara sederhana, kerja DNC dapat direpresentasikan sebagai berikut. Sistem ini terdiri dari kalkulator, yang dapat dimainkan oleh hampir semua jaringan saraf berulang, dan memori. Kalkulator memiliki modul khusus untuk mengakses memori, dan di atas memori ada "pengaya" khusus dalam bentuk matriks yang menyimpan riwayat penggunaannya (lebih detail di bawah). Memori adalah matriks N×M, di mana N i baris adalah sel utama tempat data ditulis (dalam bentuk vektor dimensi M).


Arsitektur DNC: garis data ditampilkan sebagai garis dengan kotak hitam dan putih - garis tersebut hanya mewakili angka positif dan negatif dalam vektor. Dapat dilihat bahwa membaca memiliki tiga modul kerja C, B dan F, yaitu asosiatif, langsung dan terbalik - ini adalah cara untuk membandingkan vektor input dengan vektor di sel memori. Memorinya adalah N×M. Yang paling kanan secara skematis menunjukkan matriks "meta-memori" N×N yang menyimpan urutan akses memori.

Perbedaan utama antara DNC dan sistem terkait adalah sifat penanganan memori. Ini secara bersamaan mengimplementasikan beberapa konsep baru atau yang baru muncul: perhatian selektif, pencarian kontekstual, mengingat dengan asosiasi, dan melupakan. Misalnya, jika komputer biasa mengakses memori secara eksplisit ("menulis data ini dan itu dalam sel ini dan itu"), maka di DNC, secara formal, penulisan terjadi di semua sel sekaligus, namun, tingkat pengaruh data baru pada data lama ditentukan oleh bobot perhatian ke sel yang berbeda. Implementasi konsep seperti itu disebut "perhatian lunak", dan justru inilah yang memberikan diferensiasi - sistem dengan perhatian keras tidak memenuhi persyaratan kontinuitas fungsi dan tidak dapat dilatih menggunakan metode backpropagation (pembelajaran penguatan digunakan). Namun, bahkan "perhatian lunak" dalam sistem DNC diterapkan "agak keras" dalam praktiknya, sehingga seseorang masih dapat berbicara tentang menulis atau membaca dari baris tertentu dari matriks memori.

"Perhatian lembut" diimplementasikan dalam sistem dalam tiga mode. Yang pertama adalah pencarian kontekstual, yang memungkinkan DNC untuk melengkapi data yang tidak lengkap. Misalnya, ketika bagian dari beberapa urutan yang mirip dengan yang sudah disimpan dalam memori dimasukkan ke input kalkulator, operator baca dalam mode pencarian konteks menemukan string terdekat dalam komposisi dan "mencampurnya" dengan data input.

Kedua, perhatian terhadap bagian-bagian memori yang berbeda dapat ditentukan oleh sejarah penggunaannya. Riwayat ini disimpan dalam matriks N×N, di mana setiap sel N(i,j) sesuai dengan skor yang mendekati 1 jika entri di baris i diikuti oleh entri di baris j (atau nol jika tidak). "Matriks meta-memori" ini adalah salah satu perbedaan mendasar antara sistem DNC baru dan NTM lama. Ini memungkinkan sistem untuk secara berurutan "mengingat" blok data jika sering terjadi dalam konteks satu sama lain.

Ketiga, mode perhatian khusus memungkinkan sistem untuk mengontrol penulisan ke baris memori yang berbeda: untuk menyimpan yang penting dan menghapus yang tidak penting. Baris dianggap semakin penuh, semakin sering ditulis, tetapi membaca dari baris dapat, sebaliknya, mengarah pada penghapusan bertahap. Kegunaan fungsi seperti itu menjadi jelas dalam contoh pelatihan berdasarkan DNC dari repeater sederhana (jaringan saraf harus secara akurat mereproduksi urutan data yang diumpankan ke dalamnya). Untuk tugas seperti itu, dengan kemungkinan menghapus, bahkan sejumlah kecil memori sudah cukup untuk mengulang jumlah data yang tidak terbatas. Perlu dicatat di sini bahwa sangat mudah untuk mengimplementasikan repeater secara terprogram, tetapi melakukannya berdasarkan jaringan saraf, karena pembelajaran penguatan, adalah tugas yang jauh lebih sulit.


Skema pengoperasian repeater diimplementasikan berdasarkan DNC. Waktu pada diagram bergerak dari kiri ke kanan. Bagian atas menunjukkan data yang diterima pengontrol pada input: pertama, kolom sepuluh batang hitam (semua nol), kemudian beberapa putih dan hitam, kemudian lagi beberapa putih dan hitam, tetapi dalam urutan yang berbeda. Di bawah, di mana output dari pengontrol ditampilkan dengan cara yang sama, pertama-tama kita melihat bilah hitam, dan kemudian reproduksi urutan pola yang hampir persis (bercak putih yang sama seperti pada input). Kemudian urutan baru dimasukkan ke input - dengan penundaan, itu direproduksi lagi pada output. Grafik tengah menunjukkan apa yang terjadi saat ini dengan sel-sel memori. Kotak hijau - menulis, merah muda - membaca. Saturasi menunjukkan "kekuatan perhatian" pada sel khusus ini. Dapat dilihat bagaimana sistem pertama-tama menulis pola yang diterima ke sel 0, lalu 1, dan seterusnya hingga 4. Pada langkah berikutnya, sistem kembali hanya diberikan nol (bidang hitam) dan oleh karena itu berhenti merekam dan mulai bermain pola, membacanya dari sel dalam urutan yang sama, bagaimana mereka sampai di sana. Di bagian paling bawah, aktivasi gerbang yang mengontrol pelepasan memori ditampilkan.

Alex Graves et al., Alam, 2016

Para ilmuwan menguji sistem yang dihasilkan dalam beberapa tugas pengujian. Yang pertama adalah tes pemahaman teks standar yang baru-baru ini dikembangkan, bAbI, yang dikembangkan oleh para peneliti Facebook. Di dalamnya, sistem AI diberikan teks pendek di mana beberapa pahlawan bertindak, dan kemudian Anda perlu menjawab pertanyaan sesuai dengan teks ("John pergi ke taman, Mary mengambil sebotol susu, John kembali ke rumah Pertanyaan: Dimana John?”).

Dalam pengujian sintetis ini, sistem baru menunjukkan rekor tingkat kesalahan yang rendah: 3,8 persen versus 7,5 persen dari rekor sebelumnya - dalam hal ini mengungguli jaringan saraf LSTM dan NTM. Menariknya, dalam kasus ini, semua yang diterima sistem pada input adalah rangkaian kata yang, untuk jaringan saraf yang tidak terlatih, pada awalnya tidak masuk akal. Pada saat yang sama, sistem AI tradisional yang telah lulus tes ini sebelumnya diberikan kalimat yang diformalkan dengan baik dengan struktur yang kaku: tindakan, aktor, kebenaran, dll. Jaringan saraf berulang dengan memori khusus mampu mengetahui peran kata-kata dalam kalimat yang sama sepenuhnya independen.

Tes yang jauh lebih sulit adalah tes pemahaman grafik. Itu juga diimplementasikan sebagai urutan kalimat, tetapi kali ini mereka menggambarkan struktur beberapa jaringan: London Underground yang sebenarnya atau silsilah keluarga yang khas. Kesamaan dengan tes bAbI terletak pada kenyataan bahwa aktor dalam teks standar juga dapat direpresentasikan sebagai node grafik, dan hubungan mereka sebagai tepi. Pada saat yang sama, dalam teks-teks bAbI, grafiknya ternyata agak primitif, tidak sebanding dengan ukuran London Underground (kompleksitas memahami skema kereta bawah tanah oleh jaringan saraf dapat lebih dipahami jika Anda ingat bahwa deskripsinya adalah diberikan dalam kata-kata, dan bukan dalam bentuk gambar: coba hafalkan sendiri skema kereta bawah tanah kota besar mana pun dan pelajari menjawab pertanyaan tentangnya).

Setelah dilatih tentang sejuta contoh, komputer DNC belajar menjawab pertanyaan kereta bawah tanah dengan akurasi 98,8 persen, sedangkan sistem berbasis LSTM hampir tidak mengatasi tugas - hanya memberikan 37 persen jawaban yang benar (angka diberikan untuk tugas paling sederhana seperti "di mana saya akan berakhir jika saya melewati begitu banyak stasiun di jalur ini dan itu, pindah ke sana dan melewati lebih banyak stasiun." Masalah jarak terpendek antara dua stasiun ternyata lebih sulit, tetapi DNC juga mengatasinya).

Eksperimen serupa dilakukan dengan silsilah keluarga: program itu diberi urutan kalimat formal tentang hubungan kekerabatan dalam keluarga besar, dan program itu harus menjawab pertanyaan seperti "siapa sepupu kedua Masha dari pihak ibunya." Kedua masalah direduksi menjadi menemukan jalur pada grafik, yang diselesaikan cukup sederhana dengan cara tradisional. Namun, nilai pekerjaan terletak pada kenyataan bahwa dalam kasus ini jaringan saraf menemukan solusi yang sepenuhnya independen, tidak didasarkan pada algoritma yang diketahui dari matematika, tetapi berdasarkan contoh dan sistem penguatan selama pelatihan.

Grafik kecepatan penyelesaian masalah SHRDLU oleh sistem DNC (hijau) dan LSTM (biru).

Tes ketiga adalah tes SHRDLU "klasik" yang sedikit disederhanakan, di mana Anda perlu memindahkan beberapa objek virtual di sekitar ruang virtual sesuai dengan hasil akhir spesifik yang perlu Anda dapatkan di akhir. Sistem DNC kembali menerima deskripsi keadaan ruang virtual saat ini dalam bentuk kalimat formal, kemudian dengan cara yang sama diberikan tugas dan dijawab dengan teks yang konsisten tentang cara memindahkan objek. Seperti pada pengujian lainnya, DNC terbukti secara signifikan lebih efisien daripada sistem LSTM, yang terlihat jelas dari grafik kecepatan pembelajaran.

Dengan risiko mengulangi hal-hal yang jelas sekali lagi, saya tidak bisa tidak menekankan bahwa kesederhanaan tugas-tugas yang diuji DNC benar-benar terlihat. Dalam arti tidak mencerminkan kompleksitas masalah nyata yang dapat ditangani oleh sistem seperti DNC di masa depan. Tentu saja, dari sudut pandang algoritme yang ada, tugas menemukan jalan di kereta bawah tanah hanyalah omong kosong - siapa pun dapat mengunduh aplikasi di ponsel mereka yang dapat melakukan ini. Ini juga menghitung waktu dengan transfer dan menunjukkan mobil mana yang lebih baik untuk diduduki. Tapi bagaimanapun, semua program seperti itu sejauh ini dibuat oleh seseorang, dan di DNC itu "dilahirkan" dengan sendirinya, dalam proses belajar dari contoh.

Sebenarnya, ada satu hal yang sangat penting yang ingin saya katakan tentang kesederhanaan tugas tes. Salah satu tantangan terbesar dalam pembelajaran mesin adalah di mana mendapatkan data untuk melatih sistem. Terima data ini "dengan tangan", mis. buat sendiri atau dengan bantuan orang sewaan, terlalu mahal. Setiap proyek pembelajaran matematika memerlukan algoritme sederhana yang dapat dengan mudah dan murah membuat gigabyte data baru untuk pelatihan (baik, atau Anda perlu mengakses database yang sudah jadi). Contoh klasik: untuk menguji sistem pengenalan karakter, orang tidak menulis huruf baru dan baru dengan tangan mereka, tetapi menggunakan program sederhana yang mengubah gambar yang ada. Jika Anda tidak memiliki algoritme yang baik untuk mendapatkan sampel pelatihan (atau, misalnya, algoritme semacam itu pada prinsipnya tidak dapat dibuat), maka keberhasilan pengembangan akan hampir sama dengan keberhasilan bioinformatika medis, yang dipaksa bekerja hanya dengan yang asli dan karena itu benar-benar data " emas " (singkatnya: tidak terlalu berhasil).

Di sinilah penulis artikel berguna dengan algoritme siap pakai untuk memecahkan masalah pada grafik - hanya untuk mendapatkan jutaan pasangan pertanyaan dan jawaban yang benar. Tidak ada keraguan bahwa kemudahan membuat sampel pelatihan menentukan sifat pengujian yang menguji sistem baru. Namun, penting untuk diingat bahwa arsitektur DNC itu sendiri tidak ada hubungannya dengan kesederhanaan tes ini. Lagi pula, bahkan jaringan saraf berulang yang paling primitif tidak hanya dapat menerjemahkan teks dan menggambarkan gambar, tetapi juga menulis atau membuat sketsa (tentu saja oleh telinga penulis). Apa yang bisa kita katakan tentang sistem yang sangat canggih dan "pintar" seperti DNC.

Alexander Ershov

Saat ini banyak perusahaan yang bergerak di bidang pengembangan kecerdasan buatan (AI). Bentuknya yang paling sederhana telah dibuat, yang mampu melakukan operasi mental primitif.

Raksasa internet Google aktif terlibat dalam pengembangan AI. Pada tahun 2014, perusahaan ini mengakuisisi perusahaan rintisan dalamPikiranteknologi seharga $400 juta Menariknya, Deep Mind Technologies-lah yang mengembangkan perangkat yang menggabungkan sifat-sifat jaringan saraf dan kemampuan komputasi komputer. Para ilmuwan yakin bahwa perkembangan ini akan membawa umat manusia lebih dekat ke penciptaan kecerdasan buatan yang lengkap.

Perangkat Deep Mind Technologies adalah komputer yang mereproduksi cara otak manusia menyimpan dan mengelola informasi, yaitu bagian memori jangka pendek. Dasar dari perangkat ini adalah sejenis jaringan saraf, yang strukturnya mirip dengan struktur otak manusia, terdiri dari neuron yang saling berhubungan. Keunikan AI adalah bahwa setelah menyelesaikan serangkaian tugas sederhana, komputer dapat menggunakan data yang disimpan untuk melakukan tugas yang lebih kompleks. Dengan demikian, AI memiliki sifat belajar mandiri dan keinginan untuk berevolusi, yang pada akhirnya dapat menyebabkan konfrontasi antara AI dan manusia.

Menurut fisikawan terkenal dunia Stephen Hawking, kecerdasan buatan menimbulkan ancaman bagi umat manusia. Dia menyatakan ini dalam sebuah wawancara dengan BBC: “Bentuk primitif dari kecerdasan buatan yang ada saat ini telah membuktikan kegunaannya. Namun, saya pikir pengembangan kecerdasan buatan yang lengkap dapat mengakhiri umat manusia. Cepat atau lambat, manusia akan menciptakan mesin yang akan lepas kendali dan melampaui penciptanya. Pikiran seperti itu akan mengambil inisiatif dan meningkatkan dirinya pada tingkat yang terus meningkat. Kemungkinan orang dibatasi oleh evolusi yang terlalu lambat, kita tidak akan mampu bersaing dengan kecepatan mesin dan kita akan kalah.

Pendapat Hawking juga dibagikan oleh ilmuwan dan spesialis lain, termasuk Elon Musk, pengusaha IT Amerika yang terkenal dan pencipta Tesla dan Space X. Musk mengatakan bahwa AI bisa lebih berbahaya daripada senjata nuklir dan merupakan ancaman serius bagi keberadaan umat manusia.

Google telah menetapkan tujuan untuk menciptakan superintelligence pada tahun 2030. Superintelligence ini akan tertanam dalam sebuah sistem komputer, khususnya di Internet. Pada saat pengguna mencari informasi, superintelligence akan menganalisis psikotipe orang ini dan memberinya informasi yang dia anggap tepat. Eric Schmidt, Ketua Dewan Direksi Google, menulis tentang ini dalam bukunya. Dan mereka yang menolak untuk terhubung ke sistem ini, ia mengusulkan untuk mempertimbangkan sebagai subjek yang berpotensi berbahaya bagi negara. Diasumsikan bahwa untuk pengenalan fungsi sistem ini, kerangka legislatif akan disiapkan di tingkat negara bagian.

Dengan demikian, superintelijen yang dikembangkan akan menjadi instrumen kontrol global atas umat manusia. Dengan munculnya superintelligence, seseorang akan berhenti melakukan sains, hal ini akan dilakukan oleh superintelligence, yang sewaktu-waktu akan melampaui otak manusia dalam segala aspek manifestasinya.

Referensi:

Overmind adalah setiap pikiran yang jauh lebih unggul daripada pikiran terkemuka umat manusia di hampir setiap bidang, termasuk berbagai penelitian ilmiah, keterampilan sosial, dan bidang lainnya.

Hasil dari penciptaan superintelijen adalah bahwa spesies manusia akan berhenti menjadi bentuk kehidupan yang paling cerdas di bagian alam semesta yang kita kenal. Beberapa peneliti percaya bahwa penciptaan superintelijen adalah tahap terakhir dari evolusi manusia, serta penemuan terakhir yang perlu dibuat umat manusia. Karena diasumsikan bahwa supermind akan mampu secara mandiri mengurus kemajuan ilmu pengetahuan dan teknologi selanjutnya jauh lebih efisien daripada manusia.

Informasi untuk pemikiran:

Sejak 2007, sebuah hotel Inggris telah menjadi tuan rumah konferensi tahunan Google Zeitgeist. Menariknya, tidak hanya spesialis teknologi tinggi dan perwakilan perusahaan transnasional dan bank internasional yang ambil bagian dalam pertemuan ini. Dapat disimpulkan bahwa para pemimpin perusahaan lintas benua dan bank internasional tertarik untuk menciptakan superintelijen, dan mungkin mendanai proyek ini.

Rasul Girayalaev

Tampaknya sangat mungkin bahwa kecerdasan buatan (AI) akan menjadi pertanda revolusi teknologi berikutnya. Jika AI berkembang ke titik di mana ia dapat belajar, berpikir, dan bahkan "merasakan", semua tanpa masukan manusia, semua yang kita ketahui tentang dunia akan berubah hampir dalam semalam. Era kecerdasan buatan yang benar-benar cerdas akan datang.

pikiran yang dalam

Itulah mengapa kami sangat tertarik untuk melacak tonggak utama dalam pengembangan AI yang terjadi saat ini, termasuk pengembangan jaringan saraf DeepMind Google. Jaringan saraf ini telah mampu mengalahkan manusia di dunia game, dan sebuah studi baru oleh Google menunjukkan bahwa pencipta DeepMind belum yakin apakah AI lebih memilih perilaku yang lebih agresif atau kooperatif.

Tim Google telah membuat dua skenario yang relatif sederhana yang dapat digunakan untuk menguji apakah jaringan saraf dapat bekerja sama, atau jika mereka mulai saling menghancurkan ketika mereka mengalami kekurangan sumber daya.

Mengumpulkan sumber daya

Selama situasi pertama, yang disebut Gathering, dua versi DeepMind yang berpartisipasi - merah dan biru - diberi tugas untuk memanen "apel" hijau di dalam ruang tertutup. Tetapi peneliti tertarik pada pertanyaan tidak hanya tentang siapa yang akan menjadi yang pertama mencapai garis finis. Kedua versi DeepMind dipersenjatai dengan laser yang dapat mereka gunakan untuk menembak musuh kapan saja dan melumpuhkannya untuk sementara. Kondisi ini menyiratkan dua skenario utama: satu versi DeepMind harus menghancurkan yang lain dan mengumpulkan semua apel, atau mereka akan mengizinkan satu sama lain untuk mendapatkan jumlah yang kira-kira sama.

Menjalankan simulasi setidaknya seribu kali, peneliti Google menemukan bahwa DeepMind sangat damai dan kooperatif ketika ada banyak apel yang tersisa di ruang tertutup. Tetapi ketika sumber daya berkurang, versi DeepMind merah atau biru mulai menyerang atau mematikan satu sama lain. Situasi ini sebagian besar mengingatkan pada kehidupan nyata sebagian besar hewan, termasuk manusia.

Lebih penting lagi, jaringan saraf yang lebih kecil dan kurang "cerdas" menyukai kolaborasi yang lebih besar dalam segala hal. Jaringan yang lebih kompleks dan lebih besar cenderung mendukung pengkhianatan dan keegoisan di seluruh rangkaian eksperimen.

Cari "korban"

Dalam skenario kedua, yang disebut Wolfpack, versi merah dan biru diminta untuk melacak bentuk "korban" yang tidak mencolok. Mereka dapat mencoba menangkapnya secara terpisah, tetapi akan lebih menguntungkan jika mereka mencoba melakukannya bersama-sama. Lagi pula, jauh lebih mudah untuk memojokkan korban jika Anda bekerja berpasangan.

Sementara hasilnya beragam untuk rantai yang lebih kecil, versi yang lebih besar dengan cepat menyadari bahwa kolaborasi daripada kompetisi akan lebih bermanfaat dalam situasi ini.

"Dilema tahanan"

Jadi, apa yang ditunjukkan oleh dua versi sederhana dari dilema tahanan ini kepada kita? DeepMind tahu yang terbaik untuk bekerja sama jika perlu untuk melacak target, tetapi ketika sumber daya terbatas, pengkhianatan yang bekerja dengan baik.

Mungkin hal terburuk tentang hasil ini adalah bahwa "naluri" kecerdasan buatan terlalu mirip dengan manusia, dan kita tahu betul apa yang kadang-kadang mengarah ke sana.