DeepMind-მა გახსნა უფასო წვდომა ვირტუალური მანქანების სასწავლო გარემოზე. გუგლმა გამოსცადა DeepMind ხელოვნური ინტელექტი „პატიმრის დილემის“ პირობებში Deep mind ხელოვნური ინტელექტი

Google ყიდულობს ლონდონში დაფუძნებულ ხელოვნური ინტელექტის კომპანია DeepMind-ს. წყაროები ტრანზაქციის ოდენობას 500 მილიონ დოლარზე მეტს უწოდებენ. შესყიდვა ოფიციალურად დადასტურებულია Google-ის წარმომადგენლების მიერ.


რას მისცემს Google ამ შენაძენს? პირველ რიგში, ის საშუალებას მისცემს მას კონკურენცია გაუწიოს სხვა მსხვილ ტექნოლოგიურ კომპანიებს ღრმა სწავლაზე ფოკუსირების წყალობით. მაგალითად, Facebook-მა ახლახან დაიქირავა პროფესორი Yann LeKanna, რომელიც ხელმძღვანელობდა საკუთარი ხელოვნური ინტელექტის განვითარებას. IBM-ის Watson სუპერკომპიუტერი ამჟამად სპეციალურად ღრმა სწავლაზეა ორიენტირებული, ხოლო Yahoo-მ ცოტა ხნის წინ შეიძინა LookFlow, ფოტო ანალიტიკის სტარტაპი, რომელიც ასევე წინ მიიწევს ამ საკითხში.

DeepMind დააარსეს ნეირომეცნიერმა დემის ჰასაბისმა, ჭადრაკის ყოფილმა საოცარმა, Skype-ისა და Kazaa-ს დეველოპერმა ჯაან ტალინმა და მკვლევარმა შეინ ლეგმა.

Google-ის ეს ნაბიჯი ტექნოლოგიური გიგანტის გუნდს საშუალებას მისცემს შეავსონ ხელოვნური ინტელექტის ექსპერტების საკუთარი სფერო და შესყიდვას პირადად აკონტროლებდა Google-ის აღმასრულებელი დირექტორი ლარი პეიჯი, ამბობენ წყაროები. თუ სამივე დამფუძნებელი Google-ში იმუშავებს, ისინი შეუერთდებიან გამომგონებელს, მეწარმეს, ავტორს და ფუტურისტ რეი კურცვეილს, რომელიც 2012 წელს გახდა Google-ის მანქანათმცოდნეობის და ენის დამუშავების განყოფილების CTO.

კურცვეილმა განაცხადა, რომ მას სურდა საძიებო სისტემის შექმნა ისეთი სრულყოფილი, რომ ის გახდეს ნამდვილი "კიბერნეტიკური მეგობარი".

ამ თვის დასაწყისში Nest-ის შეძენის შემდეგ, კრიტიკოსებმა გამოთქვეს შეშფოთება იმის შესახებ, თუ რამდენი მომხმარებლის მონაცემები გაეგზავნება Google-ს. გასულ თვეში Boston Dynamics-ის შეძენამ ასევე გამოიწვია დებატები იმის შესახებ, რომ Google გეგმავს გახდეს რობოტების მწარმოებელი.

მიუხედავად ამისა, Google კარგად არის მომზადებული, რომ შეამსუბუქოს ჩვენი შიში მისი უახლესი შენაძენების შესახებ. წყაროები ამბობენ, რომ Google-მა გადაწყვიტა შექმნას ეთიკის საბჭო, რომელიც ზედამხედველობას გაუწევს ხელოვნური ინტელექტის განვითარებას DeepMind-ში.

თუმცა, კომპანიას მოუწევს გარკვევა, კონკრეტულად რას აკეთებს DeepMind-ის ხელოვნური ინტელექტი. კომპანიის ვებსაიტს ამჟამად აქვს სადესანტო გვერდი შედარებით ბუნდოვანი აღწერილობით, სადაც ნათქვამია, რომ DeepMind არის "კომპანია უახლესი ზღვარზე" და აშენებს მომავლის ალგორითმებს სიმულაციებისთვის, ელექტრონული კომერციისთვის და თამაშებისთვის. დეკემბრის მონაცემებით სტარტაპს 75 თანამშრომელი ჰყავს.

სტარტაპის მთავარი სპონსორები არიან Founders Fund და Horizons Ventures. DeepMind დაარსდა სამი წლის წინ.

2012 წელს კარნეგი მელონის ინსტიტუტის პროფესორმა ლარი ვასერმანმა დაწერა, რომ „სტარტაპი აპირებს შექმნას სისტემა, რომელიც ფიქრობს. მე მეგონა, რომ ეს სუფთა სიგიჟე იყო, სანამ არ გავიგე, რამდენმა ცნობილმა მილიარდერმა ჩადო ინვესტიცია კომპანიაში.

2016 წლის 6 დეკემბერი 00:41 საათზე

DeepMind-მა გახსნა უფასო წვდომა ვირტუალური მანქანების სასწავლო გარემოზე

  • პოპულარული მეცნიერება,
  • Ხელოვნური ინტელექტი ,
  • თამაშები და სათამაშო კონსოლები

ცოტა ხნის წინ, DeepMind განყოფილების წარმომადგენლებმა (ამჟამად Alphabet-ის ჰოლდინგის ნაწილი) განაცხადეს დეველოპერებისთვის DeepMind Lab პლატფორმის წყაროს კოდზე უფასო წვდომის შესახებ. ეს არის Quake III-ზე დაფუძნებული მანქანათმცოდნეობის სერვისი, რომელიც შექმნილია ხელოვნური ინტელექტის მოსამზადებლად. კერძოდ, ისწავლოს როგორ გადაჭრას პრობლემები სამგანზომილებიან სივრცეში ადამიანის ჩარევის გარეშე. პლატფორმა დაფუძნებულია Quake III Arena თამაშის ძრავზე.

თამაშის სამყაროს შიგნით, AI იღებს სფეროს ფორმას და ფრენის უნარს, სწავლობს მიმდებარე სივრცეს. დეველოპერების მიერ დასახული მიზანია ასწავლონ ხელოვნური ინტელექტის სუსტი ფორმა „გაიგონ“ რა ხდება და უპასუხონ ვირტუალურ სამყაროში მომხდარ სხვადასხვა სიტუაციებს. „პერსონაჟს“ შეუძლია შეასრულოს მთელი რიგი მოქმედებები, გადაადგილდეს ლაბირინთში, შეისწავლოს უშუალო გარემო.

„ჩვენ ვცდილობთ შევიმუშაოთ ხელოვნური ინტელექტის სხვადასხვა ფორმები, რომლებსაც შეუძლიათ შეასრულონ მთელი რიგი ამოცანები, თამაშის სამყაროს უბრალოდ შესწავლიდან ნებისმიერი ქმედების განხორციელებამდე და მათი შედეგების გაანალიზებამდე“, - ამბობს შეინ ლეგი, DeepMind-ის მთავარი მეცნიერი.

ექსპერტები იმედოვნებენ, რომ ხელოვნური ინტელექტი საცდელი და შეცდომით სწავლას შეძლებს. თამაშები ამ შემთხვევაში თითქმის იდეალურია. მაგალითად, DeepMind ადრე იყენებდა (და იყენებს ახლა) Atari სათამაშო კონსოლს, რათა ესწავლებინა ნერვულ ქსელს თამაშისთვის აუცილებელი თანმიმდევრული მოქმედებების შესრულება.

მაგრამ ღია, მოდიფიცირებადი 3D სამყარო იძლევა ბევრად უფრო პერსპექტიულ გარემოს ხელოვნური ინტელექტის სწავლისთვის, ვიდრე Atari-ის გრაფიკულად მარტივი სათამაშოების ბრტყელი სამყარო. AI-ს 3D სამყაროში აქვს მკაფიო ამოცანები, რომლებიც თანმიმდევრულად იცვლება ისე, რომ ყოველი წინა ამოცანის ამოხსნისას მიღებული გამოცდილება გამოდგება AI-სთვის შემდეგი ამოცანის ამოხსნის პროცესში.

3D გარემოს უპირატესობა ის არის, რომ ის შეიძლება გამოყენებულ იქნას კომპიუტერული სისტემების მოსამზადებლად, რათა უპასუხონ სხვადასხვა პრობლემებს, რომლებსაც რობოტი შეიძლება მოელოდოს რეალურ სამყაროში. ასეთი სიმულატორის დახმარებით სამრეწველო რობოტები უპრობლემოდ წვრთნიან. და ვირტუალურ გარემოსთან მუშაობა ზოგ შემთხვევაში უჩვეულოდ ადვილია, ვიდრე ასეთი სისტემების „ხელით“ სწავლება.

ამავდროულად, ყველაზე თანამედროვე ნერვული ქსელები განვითარებულია ერთი კონკრეტული პრობლემის გადასაჭრელად (მაგალითად, გამოსახულების დამუშავება). ახალი პლატფორმის დეველოპერები გვპირდებიან, რომ ის ხელს შეუწყობს ხელოვნური ინტელექტის უნივერსალური ფორმის შექმნას, რომელსაც შეუძლია დიდი რაოდენობის ამოცანების გადაჭრა. მეტიც, ამ შემთხვევაში კომპიუტერულ სისტემას ხალხის დახმარება არ დასჭირდება. ნერვული ქსელისთვის გარემოს წარმოქმნა ხდება ყოველ ჯერზე შემთხვევითი თანმიმდევრობით.


პლატფორმის დეველოპერების თქმით, ის ეხმარება ხელოვნური ინტელექტის შესწავლას ისევე, როგორც ბავშვები სწავლობენ. „როგორ ვიკვლევდით მე ან შენ ბავშვობაში სამყაროს“ - აჩვენა DeepMind-ის ერთ-ერთმა თანამშრომელმა. „მანქანური სწავლების საზოგადოება ყოველთვის ძალიან ღია იყო. ჩვენ ვაქვეყნებთ დაახლოებით 100 სტატიას წელიწადში და ვხსნით ჩვენს ბევრ პროექტს. ”

ახლა Google DeepMind-მა გახსნა DeepMind Lab-ის წყაროს კოდი, რომელიც გამოაქვეყნა GitHub-ზე. ამის წყალობით, ნებისმიერ მსურველს შეუძლია ჩამოტვირთოთ პლატფორმის კოდი და შეცვალოს იგი მათი საჭიროებების შესაბამისად. პროექტის წარმომადგენლები ამბობენ, რომ დაკავშირებულ სპეციალისტებს შეუძლიათ დამოუკიდებლად შექმნან ახალი თამაშის დონეები GitHub-ში საკუთარი პროექტების ატვირთვით. ეს შეიძლება დაეხმაროს მთელ საზოგადოებას იმუშაოს თავისი მიზნისკენ უფრო სწრაფად და ეფექტურად.

ეს პროექტი არ არის ერთადერთი DeepMind-ისთვის. გასულ თვეში მისმა წარმომადგენლებმა გააფორმეს თანამშრომლობის ხელშეკრულება Activision Blizzard Inc-თან. მიზანია Starcraft 2-ის გარემო ხელოვნური ინტელექტის საცდელ ადგილზე. შესაძლოა, ამ პროექტს მალე შეუერთდნენ თამაშის სხვა დეველოპერები. სხვათა შორის, AI სათამაშო გარემოში არანაირ უპირატესობას არ ანიჭებს მტერს, იყენებს მხოლოდ წინსვლისთვის, როგორც ადამიანი.

პრაქტიკაში, ეს ნიშნავს, რომ Google AI-ს მოუწევს წინასწარ განსაზღვროს, რას აკეთებს მტერი ნებისმიერ დროს, რათა ადეკვატურად უპასუხოს „მტრის“ ქმედებებს. გარდა ამისა, საჭირო იქნება სწრაფი რეაგირება იმაზე, რაც გეგმიდან წავიდა. ეს ყველაფერი შეამოწმებს ხელოვნური ინტელექტის შესაძლებლობების მომდევნო დონეს. ”საბოლოოდ, ჩვენ გვინდა გამოვიყენოთ ეს შესაძლებლობები გლობალური პრობლემების გადასაჭრელად,” - თქვა Demis Hassabis-მა, Deepmind-ის დამფუძნებელმა (რომელიც Google-მა 2014 წელს იყიდა და ახლა AI ვითარდება შეძენილი კომპანიის მიღწევებზე დაყრდნობით).

ხელოვნური ინტელექტის ექსპერტები პროექტს ფრთხილად ამტკიცებენ. ”კარგი ის არის, რომ ისინი უზრუნველყოფენ გარემოს ტიპების დიდ რაოდენობას,” - თქვა OpenAI-ის თანადამფუძნებელმა ილია სუცკევარმა. „რაც უფრო მეტ გარემოს ხვდება სისტემა, მით უფრო სწრაფად განვითარდება ის“, - განაგრძო მან. მართლაც, 3D AI სასწავლო გარემო შეიცავს 1000-ზე მეტ დონეს და გარემოს ტიპს.

ზუბინ გაჰრაჰმანი, კემბრიჯის პროფესორი, თვლის, რომ DeepMind Lab და სხვა პლატფორმები ხელოვნური ინტელექტის განვითარების გასაძლიერებლად წარმართავს პროგრესს, რაც საშუალებას აძლევს მკვლევარებს შევიდნენ განვითარებულ გარემოში. თუმცა, პროექტები, როგორიცაა

Google Deepmind-ის მკვლევარებმა წარმოადგინეს ახალი ტიპის ხელოვნური ინტელექტის სისტემა, ე.წ. Differentiable Neural Computer, DNC. სისტემა აერთიანებს ნერვული ქსელების სწავლის შესაძლებლობას ტრადიციული ხელოვნური ინტელექტის დედუქციურ შესაძლებლობებთან. მისი აღწერა გამოქვეყნდა ჟურნალში Ბუნება, ჟურნალის ამავე ნომერში ეძღვნება ახალი ნაშრომი, ნაწარმოების მოკლე გადმოცემა შეგიძლიათ ნახოთ Deepmind ბლოგზე.

უმარტივესი ნეირონული ქსელები არის პროგნოზირების, რეგრესიის სისტემა, რომლის ამოცანაა შეყვანილი მონაცემების შესაბამისობა გარკვეულ პასუხთან. მაგალითად, უბრალო ნერვულ ქსელს შეუძლია სიმბოლოების ამოცნობა მათი სურათების საფუძველზე. ამ თვალსაზრისით, ნერვული ქსელი შეიძლება ჩაითვალოს როგორც მათემატიკური ფუნქცია და დიფერენცირებადი ფუნქცია. ნერვული ქსელის მომზადება ასეთ პარადიგმაში ნიშნავს ამ ფუნქციის ოპტიმიზაციას სტანდარტული მათემატიკური მეთოდების გამოყენებით (ხელმისაწვდომი ახსნა იმის შესახებ, თუ როგორ ხდება ტრენინგი, შეიძლება წაიკითხოთ).

მონაცემებიდან სწავლის უნარი პირდაპირი ადამიანის პროგრამირების გარეშე არის ნერვული ქსელების მთავარი უპირატესობა. თუმცა, უმარტივესი ნერვული ქსელები არ არის ტურინგის სრული, ანუ მათ არ შეუძლიათ ყველარამ, რაც ტრადიციულ ალგორითმულ პროგრამებს შეუძლიათ (რაც, თუმცა, არ ნიშნავს, რომ მათ არ შეუძლიათ ზოგიერთიეს პროგრამებზე უკეთესია). ამის ერთ-ერთი მიზეზი არის მეხსიერების ნაკლებობა ნერვულ ქსელებში, რომლითაც შეგიძლიათ იმუშაოთ შეყვანის მონაცემებით და შეინახოთ ლოკალური ცვლადები.

შედარებით ცოტა ხნის წინ გამოჩნდა ნერვული ქსელების უფრო რთული ტიპი, რომელშიც აღმოიფხვრა ეს ნაკლი - ე.წ. განმეორებადი ნერვული ქსელები. ისინი არა მხოლოდ ინახავენ ინფორმაციას სწავლის მდგომარეობის შესახებ (ნეირონების წონის მატრიცა), არამედ თავად ნეირონების წინა მდგომარეობის შესახებ. შედეგად, ასეთი ნერვული ქსელის რეაქციაზე გავლენას ახდენს არა მხოლოდ შეყვანის მონაცემები და წონის მატრიცა, არამედ მისი უშუალო ისტორიაც. ამ ტიპის უმარტივეს ნერვულ ქსელს შეუძლია, მაგალითად, „ჭკვიანურად“ იწინასწარმეტყველოს ტექსტის შემდეგი სიმბოლო: ნეირონული ქსელის სწავლებით ლექსიკონის მონაცემებზე, შესაძლებელი იქნება პასუხის „l“ მიღება სიმბოლოზე „l“, თუ წინა სიმბოლოები იყო "h", "e" და "l", მაგრამ განსხვავებული პასუხია "o", თუ წინა იყო "h", "e", "l" და ისევ "l" (სიტყვა " გამარჯობა“ აღმოჩნდება, იხილეთ ჩანართი).

განმეორებადი ნერვული ქსელის მაგალითი ერთი ფარული ფენით. თქვენ ხედავთ, თუ როგორ ცვლის მონაცემთა არხი ქსელის მდგომარეობას. ნეირონების გაწვრთნილი წონა ინახება მატრიცებში W_xh, W_hy და სპეციალურ მატრიცაში W_hh, რომელიც დამახასიათებელია მხოლოდ განმეორებადი ქსელებისთვის.

ანდრეი კარპათი ბლოგი

მორეციდივე ნერვულმა ქსელებმა ძალიან კარგად გამოიჩინეს თავი მუსიკის ან ტექსტის გენერირებისას ზოგიერთი ავტორის "სტილში", რომლის კორპუსზეც ტარდებოდა ტრენინგი, *-ში და, ახლახან, სისტემებში და ასე შემდეგ (მაგალითად,).

ფორმალურად რომ ვთქვათ, უმარტივესი მორეციდივე ნერვული ქსელებიც კი არის ტურინგ-სრული, მაგრამ მათი მნიშვნელოვანი ნაკლი მდგომარეობს მეხსიერების გამოყენების იმპლიციტურ ბუნებაში. თუ ტურინგის მანქანაში მეხსიერება და კალკულატორი განცალკევებულია (რაც საშუალებას გაძლევთ შეცვალოთ მათი არქიტექტურა სხვადასხვა გზით), მაშინ მორეციდივე ნერვულ ქსელებში, მათგან ყველაზე მოწინავეშიც კი (LSTM), მეხსიერების დამუშავების განზომილება და ბუნებაა. განისაზღვრება თავად ნერვული ქსელის არქიტექტურით.

LSTM ქსელების ამ თანდაყოლილი ხარვეზის გამოსასწორებლად, DeepMind-ის მეცნიერებმა (რომლებიც ყველა ახალი სტატიის ავტორთა გუნდის ნაწილია) ცოტა ხნის წინ შემოგვთავაზეს ეგრეთ წოდებული ნერვული ტურინგის მანქანების არქიტექტურა (Neural Turing Machines). მასში კალკულატორი და მეხსიერება განცალკევებულია, როგორც ტურინგის ჩვეულებრივ მანქანებში, მაგრამ ამავე დროს, სისტემა ინარჩუნებს დიფერენცირებადი ფუნქციის თვისებებს, რაც ნიშნავს, რომ მისი მომზადება შესაძლებელია მაგალითებით (უკან გავრცელების მეთოდის გამოყენებით) და არა ცალსახად. დაპროგრამებული. ახალი სისტემა, დიფერენცირებადი ნერვული კომპიუტერი, ან DNC, დაფუძნებულია იმავე არქიტექტურაზე, მაგრამ კალკულატორსა და მეხსიერებას შორის კომუნიკაცია ორგანიზებულია ბევრად უფრო მოქნილი გზით: ის ახორციელებს არა მხოლოდ დამახსოვრების, არამედ კონტექსტური ამოცნობისა და დავიწყების კონცეფციებს. (ცალკე განყოფილება ეთმობა ორი სისტემის შედარებას). ახალი სტატია).

გამარტივებულად, DNC-ის მუშაობა შეიძლება წარმოდგენილი იყოს შემდეგნაირად. სისტემა შედგება კალკულატორისგან, რომლის თამაშიც შესაძლებელია თითქმის ნებისმიერი განმეორებადი ნერვული ქსელით და მეხსიერებით. კალკულატორს აქვს სპეციალური მოდულები მეხსიერების წვდომისთვის, ხოლო მეხსიერების ზემოთ არის სპეციალური "დამატება" მატრიცის სახით, რომელიც ინახავს მისი გამოყენების ისტორიას (დაწვრილებით ქვემოთ). მეხსიერება არის N×M მატრიცა, სადაც N i რიგები არის ძირითადი უჯრედები, სადაც მონაცემები იწერება (M განზომილების ვექტორების სახით).


DNC არქიტექტურა: მონაცემთა ხაზები ნაჩვენებია როგორც ხაზები შავი და თეთრი კვადრატებით - ისინი წარმოადგენენ უბრალოდ დადებით და უარყოფით რიცხვებს ვექტორში. ჩანს, რომ კითხვას აქვს სამუშაოს სამი მოდული C, B და F, ანუ ასოციაციური, პირდაპირი და ინვერსიული - ეს არის მეხსიერების უჯრედში შეყვანის ვექტორის შედარების გზები. მეხსიერება არის N×M. ყველაზე მარჯვენა სქემატურად აჩვენებს N×N "მეტა-მეხსიერების" მატრიცას, რომელიც ინახავს მეხსიერების წვდომის თანმიმდევრობას.

მთავარი განსხვავება DNC და მასთან დაკავშირებულ სისტემებს შორის არის მეხსიერების დამუშავების ბუნება. ის ერთდროულად ახორციელებს რამდენიმე ახალ ან ახლახან გაჩენილ კონცეფციას: შერჩევითი ყურადღება, კონტექსტური ძიება, გახსენება ასოციაციის გზით და დავიწყება. მაგალითად, თუ ჩვეულებრივი კომპიუტერები ცალსახად წვდებიან მეხსიერებას ("დაწერეთ მონაცემები ასეთ და ასეთ უჯრედში ასეთ და ასეთ"), მაშინ DNC-ში, ფორმალურად რომ ვთქვათ, ჩაწერა ხდება ერთდროულად ყველა უჯრედში, თუმცა, ახალი მონაცემების გავლენის ხარისხი. ძველები განისაზღვრება სხვადასხვა უჯრედებისადმი ყურადღების წონით. კონცეფციის ასეთ განხორციელებას ეწოდება "რბილი ყურადღება" და სწორედ ეს უზრუნველყოფს დიფერენციალურობას - მძიმე ყურადღების მქონე სისტემები არ აკმაყოფილებს ფუნქციის უწყვეტობის მოთხოვნას და არ შეიძლება ივარჯიშონ უკანა გავრცელების მეთოდის გამოყენებით (გამოიყენება გაძლიერების სწავლა). თუმცა, DNC სისტემაში "რბილი ყურადღებაც" პრაქტიკაში "საკმაოდ მძიმე" არის დანერგილი, ამიტომ მეხსიერების მატრიცის გარკვეული სტრიქონიდან წერაზე ან კითხვაზე საუბარი მაინც შეიძლება.

„რბილი ყურადღება“ სისტემაში დანერგილია სამ რეჟიმში. პირველი არის კონტექსტური ძიება, რომელიც საშუალებას აძლევს DNC-ს შეავსოს არასრული მონაცემები. მაგალითად, როდესაც მეხსიერებაში უკვე შენახული მიმდევრობის მსგავსი ნაჭერი მიეწოდება კალკულატორის შეყვანას, წაკითხვის ოპერატორი კონტექსტური ძიების რეჟიმში ყურადღების ცენტრში პოულობს კომპოზიციაში უახლოეს სტრიქონს და „არევს“ მას შეყვანის მონაცემებთან. .

მეორე, მეხსიერების სხვადასხვა ნაწილზე ყურადღების მიქცევა შეიძლება განისაზღვროს მისი გამოყენების ისტორიით. ეს ისტორია ინახება N×N მატრიცაში, სადაც თითოეული უჯრედი N(i,j) შეესაბამება 1-თან მიახლოებულ ქულას, თუ მწკრივში i ჩანაწერს მოჰყვება ჩანაწერი j მწკრივში (ან ნული, თუ არა). ეს "მეტა-მეხსიერების მატრიცა" არის ერთ-ერთი ფუნდამენტური განსხვავება ახალ DNC სისტემასა და ძველ NTM-ს შორის. ის საშუალებას აძლევს სისტემას თანმიმდევრულად „დაიმახსოვროს“ მონაცემთა ბლოკები, თუ ისინი ხშირად ჩნდებიან ერთმანეთის კონტექსტში.

მესამე, ყურადღების განსაკუთრებული რეჟიმი საშუალებას აძლევს სისტემას გააკონტროლოს ჩაწერა მეხსიერების სხვადასხვა ხაზებზე: შეინახოს მნიშვნელოვანი და წაშალოს უმნიშვნელო. სტრიქონი მიჩნეულია უფრო სავსედ, რამდენჯერ დაიწერა, მაგრამ სტრიქონიდან წაკითხვამ შეიძლება, პირიქით, გამოიწვიოს მისი თანდათანობით წაშლა. ასეთი ფუნქციის სარგებლობა აშკარაა მარტივი განმეორების DNC-ზე დაფუძნებული ვარჯიშის მაგალითში (ნერვულმა ქსელმა ზუსტად უნდა აწარმოოს მონაცემების თანმიმდევრობა, რომელიც მას მიეწოდება). ასეთი ამოცანისთვის, წაშლის შესაძლებლობით, მეხსიერების მცირე რაოდენობაც კი საკმარისია შეუზღუდავი რაოდენობის მონაცემების გასამეორებლად. აქვე უნდა აღინიშნოს, რომ რეპეტიტორის პროგრამულად დანერგვა ძალიან მარტივია, მაგრამ ამის გაკეთება ნერვული ქსელის საფუძველზე, განმტკიცების სწავლის გამო, გაცილებით რთული ამოცანაა.


DNC-ის ბაზაზე განხორციელებული რეპეტიტორის მუშაობის სქემა. დიაგრამაზე დრო გადის მარცხნიდან მარჯვნივ. ზედა აჩვენებს მონაცემებს, რომლებსაც კონტროლერი იღებს შეყვანისას: ჯერ ათი შავი ზოლის სვეტი (ყველა ნული), შემდეგ რამდენიმე თეთრი და შავი, შემდეგ ისევ რამდენიმე თეთრი და შავი, მაგრამ განსხვავებული თანმიმდევრობით. ქვემოთ, სადაც კონტროლერიდან გამომავალი ანალოგიურად არის ნაჩვენები, ჩვენ ჯერ ვხედავთ შავ ზოლებს, შემდეგ კი შაბლონების თანმიმდევრობის თითქმის ზუსტ რეპროდუქციას (იგივე თეთრი ლაქა, როგორც შეყვანისას). შემდეგ ახალი თანმიმდევრობა იკვებება შეყვანაში - დაგვიანებით, ის კვლავ მრავლდება გამოსავალზე. შუა გრაფიკი აჩვენებს რა ხდება ამ დროს მეხსიერების უჯრედებთან. მწვანე კვადრატები - წერა, ვარდისფერი - კითხვა. გაჯერება აჩვენებს "ყურადღების ძალას" ამ კონკრეტულ უჯრედზე. ჩანს, თუ როგორ წერს სისტემა მიღებულ შაბლონებს ჯერ უჯრედში 0, შემდეგ 1 და ასე შემდეგ 4-მდე. შემდეგ ეტაპზე სისტემას ისევ მხოლოდ ნულები ეძლევა (შავი ველი) და ამიტომ ის წყვეტს ჩაწერას და იწყებს თამაშს. შაბლონები, მათი წაკითხვა უჯრედებიდან იმავე თანმიმდევრობით, როგორ მოხვდნენ იქ. ბოლოში ნაჩვენებია კარიბჭეების გააქტიურება, რომლებიც აკონტროლებენ მეხსიერების გათავისუფლებას.

ალექს გრეივსი და სხვები, ბუნება, 2016 წ

მეცნიერებმა გამოსცადეს მიღებული სისტემა რამდენიმე სატესტო დავალებაში. პირველი მათგანი იყო ახლახან შემუშავებული სტანდარტიზებული ტექსტის გაგების ტესტი, bAbI, რომელიც შემუშავებული იყო Facebook-ის მკვლევარების მიერ. მასში, ხელოვნური ინტელექტის სისტემას ეძლევა მოკლე ტექსტი, სადაც მოქმედებენ ზოგიერთი გმირი, შემდეგ კი თქვენ უნდა უპასუხოთ კითხვას ტექსტის მიხედვით („ჯონი წავიდა ბაღში, მარიამმა აიღო ბოთლი რძე, ჯონი დაბრუნდა სახლში. კითხვა: სად არის იოანე?“).

ამ სინთეტიკურ ტესტში ახალმა სისტემამ აჩვენა შეცდომის რეკორდულად დაბალი მაჩვენებელი: 3.8 პროცენტი წინა ჩანაწერის 7.5 პროცენტთან შედარებით - ამით მან აჯობა როგორც LSTM ნერვულ ქსელებს, ასევე NTM-ს. საინტერესოა, რომ ამ შემთხვევაში, ყველაფერი, რაც სისტემამ მიიღო შეყვანისას, იყო სიტყვების თანმიმდევრობა, რომელსაც, მოუმზადებელი ნერვული ქსელისთვის, თავიდან აზრი არ ჰქონდა. ამავდროულად, ხელოვნური ხელოვნური ინტელექტის ტრადიციულ სისტემებს, რომლებმაც უკვე გაიარეს ეს ტესტი, ადრე მიიღეს კარგად ფორმალიზებული წინადადებები მკაცრი სტრუქტურით: მოქმედება, მსახიობი, სიმართლე და ა. იმავე წინადადებებში სრულიად დამოუკიდებლად.

მნიშვნელოვნად უფრო რთული ტესტი იყო გრაფიკის გააზრების ტესტი. ის ასევე განხორციელდა წინადადებების თანმიმდევრობით, მაგრამ ამჯერად მათ აღწერეს ზოგიერთი ქსელის სტრუქტურა: ნამდვილი ლონდონის მეტრო ან ტიპიური ოჯახის ხე. მსგავსება bAbI ტესტთან მდგომარეობს იმაში, რომ სტანდარტიზებულ ტექსტში მოქმედი პირები ასევე შეიძლება წარმოდგენილი იყოს გრაფიკის კვანძებად, ხოლო მათი ურთიერთობები, როგორც კიდეები. ამავდროულად, bAbI ტექსტებში, გრაფიკი საკმაოდ პრიმიტიული გამოდის, შეუდარებელი ლონდონის მეტროპოლიტენის ზომასთან (ნერვული ქსელის მიერ მეტროს სქემის გაგების სირთულე უკეთესად გასაგებია, თუ გახსოვთ, რომ მისი აღწერა არის მოცემული სიტყვებით და არა გამოსახულების სახით: შეეცადეთ დაიმახსოვროთ რომელიმე დიდი ქალაქის მეტროს სქემა და ისწავლოთ ამაზე პასუხის გაცემა კითხვებზე).

მილიონ მაგალითზე ტრენინგის შემდეგ, DNC კომპიუტერმა ისწავლა მეტროს კითხვებზე პასუხის გაცემა 98,8 პროცენტიანი სიზუსტით, ხოლო LSTM-ზე დაფუძნებული სისტემა თითქმის ვერ უმკლავდებოდა დავალებას - მან მხოლოდ 37 პროცენტი გასცა სწორი პასუხი (ნომრები მოცემულია უმარტივესი ამოცანისთვის. მაგალითად, "სად აღმოვჩნდები, თუ ამდენ სადგურს გავივლი ამა თუ იმ ხაზზე, გადავიყვან და კიდევ ამდენ სადგურს გავუვლი." ორ სადგურს შორის უმოკლესი მანძილის პრობლემა უფრო რთული აღმოჩნდა, მაგრამ DNC ასევე გაართვა თავი).

მსგავსი ექსპერიმენტი ჩატარდა საგვარეულო ხეზე: პროგრამას მიეცა ფორმალური წინადადებების თანმიმდევრობა მრავალშვილიან ოჯახში ნათესაური ურთიერთობების შესახებ და მას უნდა ეპასუხა ისეთ კითხვებზე, როგორიცაა "ვინ არის მაშას მეორე ბიძაშვილი დედის მხრიდან". ორივე პრობლემა მცირდება გრაფიკზე ბილიკის პოვნამდე, რომელიც საკმაოდ მარტივად წყდება ტრადიციული გზით. თუმცა, სამუშაოს ღირებულება მდგომარეობს იმაში, რომ ამ შემთხვევაში ნერვულმა ქსელმა იპოვა გამოსავალი სრულიად დამოუკიდებლად, დაფუძნებული არა მათემატიკიდან ცნობილ ალგორითმებზე, არამედ მაგალითებზე და ვარჯიშის დროს გაძლიერების სისტემის საფუძველზე.

SHRDLU პრობლემის გადაჭრის სიჩქარის გრაფიკი DNC (მწვანე) და LSTM (ლურჯი) სისტემებით.

მესამე ტესტი იყო ოდნავ გამარტივებული "კლასიკური" SHRDLU ტესტი, რომელშიც თქვენ უნდა გადაიტანოთ რამდენიმე ვირტუალური ობიექტი ვირტუალურ სივრცეში კონკრეტული საბოლოო შედეგის შესაბამისად, რომელიც უნდა მიიღოთ ბოლოს. DNC სისტემამ კვლავ მიიღო ვირტუალური სივრცის ამჟამინდელი მდგომარეობის აღწერა ფორმალიზებული წინადადებების სახით, შემდეგ ანალოგიურად მიეცა დავალება და უპასუხა თანმიმდევრული ტექსტით, თუ როგორ უნდა გადაიტანოთ ობიექტები. როგორც სხვა ტესტებში, DNC აღმოჩნდა მნიშვნელოვნად უფრო ეფექტური ვიდრე LSTM სისტემები, რაც ნათლად ჩანს სწავლის სიჩქარის გრაფიკებიდან.

აშკარა საგნების კიდევ ერთხელ გამეორების რისკის ქვეშ, არ შემიძლია არ აღვნიშნო, რომ ამოცანების აშკარა სიმარტივე, რომლებზეც DNC იქნა ტესტირება, ნამდვილად აშკარაა. იმ გაგებით, რომ ის არ ასახავს იმ რეალური პრობლემების სირთულეს, რომელსაც DNC-ის მსგავსი სისტემა მომავალში შეძლებს გაუმკლავდეს. რა თქმა უნდა, არსებული ალგორითმების თვალსაზრისით, მეტროში გზის პოვნის ამოცანა უბრალოდ სისულელეა - ნებისმიერს შეუძლია ტელეფონში ჩამოტვირთოთ აპლიკაცია, რომელსაც ეს შეუძლია. ის ასევე ითვლის დროს ტრანსფერებით და მიუთითებს რომელ მანქანაში ჯობია დაჯდომა. ყოველივე ამის შემდეგ, ყველა ასეთი პროგრამა აქამდე შეიქმნა ადამიანის მიერ და DNC-ში ის თავისთავად "იბადება", მაგალითებიდან სწავლის პროცესში.

სინამდვილეში, არის ერთი ძალიან მნიშვნელოვანი რამ, რისი თქმაც მსურს სატესტო ამოცანების სიმარტივის შესახებ. მანქანათმცოდნეობის ერთ-ერთი ყველაზე დიდი გამოწვევა არის ის, თუ სად უნდა მივიღოთ მონაცემები, რომლებზედაც სისტემა მოვამზადოთ. მიიღეთ ეს მონაცემები „ხელით“, ე.ი. შექმენით საკუთარი თავი ან დაქირავებული ადამიანების დახმარებით, ძალიან ძვირი. მათემატიკის სწავლის ნებისმიერ პროექტს სჭირდება მარტივი ალგორითმი, რომელსაც შეუძლია მარტივად და იაფად შექმნას გიგაბაიტი ახალი მონაცემები ტრენინგისთვის (კარგად, ან თქვენ გჭირდებათ მზა მონაცემთა ბაზების წვდომა). კლასიკური მაგალითი: პერსონაჟების ამოცნობის სისტემების შესამოწმებლად ადამიანები ხელებით არ წერენ ახალ და ახალ ასოებს, არამედ იყენებენ მარტივ პროგრამას, რომელიც ამახინჯებს არსებულ სურათებს. თუ არ გაქვთ კარგი ალგორითმი სასწავლო ნიმუშის მისაღებად (ან, მაგალითად, ასეთი ალგორითმი პრინციპში შეუძლებელია), მაშინ განვითარებაში წარმატება დაახლოებით ისეთივე იქნება, როგორც სამედიცინო ბიოინფორმატიკის, რომლებიც იძულებულნი არიან იმუშაონ. მხოლოდ რეალური და, შესაბამისად, ნამდვილად "ოქროს" მონაცემებით (მოკლედ: არც თუ ისე წარმატებული).

სწორედ აქ გამოადგებათ სტატიის ავტორებს მზა ალგორითმები გრაფიკზე ამოცანების გადასაჭრელად - მხოლოდ მილიონობით სწორი წყვილი კითხვა-პასუხის მისაღებად. ეჭვგარეშეა, რომ სასწავლო ნიმუშის შექმნის სიმარტივე განსაზღვრავდა ტესტების ბუნებას, რომლებიც ამოწმებდნენ ახალ სისტემას. თუმცა, მნიშვნელოვანია გვახსოვდეს, რომ თავად DNC არქიტექტურას საერთო არაფერი აქვს ამ ტესტების სიმარტივესთან. ყოველივე ამის შემდეგ, ყველაზე პრიმიტიულ მორეციდივე ნერვულ ქსელებსაც კი შეუძლიათ არა მხოლოდ ტექსტების თარგმნა და სურათების აღწერა, არამედ ჩანახატების დაწერა ან გენერირება (რა თქმა უნდა, ავტორის ყურით). რა შეგვიძლია ვთქვათ ისეთ მოწინავე, მართლაც „ჭკვიან“ სისტემებზე, როგორიცაა DNC.

ალექსანდრე ერშოვი

ამჟამად მრავალი კომპანიაა დაკავებული ხელოვნური ინტელექტის (AI) შემუშავებით. უკვე შექმნილია მისი უმარტივესი ფორმები, რომლებსაც შეუძლიათ განახორციელონ პრიმიტიული გონებრივი ოპერაციები.

ინტერნეტ გიგანტი Googleაქტიურად არის ჩართული ხელოვნური ინტელექტის განვითარებაში. 2014 წელს ამ კომპანიამ შეიძინა დამწყები კომპანია ღრმაგონებატექნოლოგიები 400 მილიონ დოლარად საინტერესოა, რომ Deep Mind Technologies-მა შექმნა მოწყობილობა, რომელიც აერთიანებს ნერვული ქსელის თვისებებს და კომპიუტერის გამოთვლით შესაძლებლობებს. მეცნიერები დარწმუნებულნი არიან, რომ ეს განვითარება კაცობრიობას დააახლოებს სრულფასოვანი ხელოვნური ინტელექტის შექმნას.

Deep Mind Technologies-ის მოწყობილობა არის კომპიუტერი, რომელიც ასახავს ადამიანის ტვინს ინფორმაციის შენახვას და მართვას, კერძოდ მოკლევადიანი მეხსიერების განყოფილებას. მოწყობილობის საფუძველია ერთგვარი ნერვული ქსელი, რომლის სტრუქტურა ჰგავს ადამიანის ტვინის სტრუქტურას, რომელიც შედგება ერთმანეთთან დაკავშირებული ნეირონებისგან. ხელოვნური ინტელექტის თავისებურება ის არის, რომ მარტივი დავალების სერიის შესრულების შემდეგ კომპიუტერს შეუძლია შენახული მონაცემების გამოყენება უფრო რთულის შესასრულებლად. ამრიგად, AI-ს აქვს თვითსწავლის თვისება და ევოლუციის სურვილი, რაც საბოლოოდ შეიძლება გამოიწვიოს ხელოვნური ინტელექტისა და ადამიანების დაპირისპირება.

მსოფლიოში ცნობილი ფიზიკოსის აზრით სტივენ ჰოკინგი, ხელოვნური ინტელექტი საფრთხეს უქმნის კაცობრიობას. ამის შესახებ მან BBC-სთან ინტერვიუში განაცხადა: „ხელოვნური ინტელექტის პრიმიტიულმა ფორმებმა, რომლებიც დღეს არსებობს, დაამტკიცა მათი სარგებლიანობა. თუმცა, მე ვფიქრობ, რომ სრულფასოვანი ხელოვნური ინტელექტის განვითარებამ შეიძლება დაასრულოს კაცობრიობა. ადრე თუ გვიან ადამიანი შექმნის მანქანას, რომელიც კონტროლიდან გამოვა და მის შემქმნელს გადააჭარბებს. ასეთი გონება აიღებს ინიციატივას და გააუმჯობესებს თავს მუდმივად მზარდი ტემპით. ადამიანების შესაძლებლობები შემოიფარგლება ძალიან ნელი ევოლუციით, ჩვენ ვერ გავუწევთ კონკურენციას მანქანების სისწრაფეს და წავაგებთ.

ჰოკინგის აზრს იზიარებენ სხვა მეცნიერები და სპეციალისტებიც, მათ შორის ილონ მასკი, ცნობილმა ამერიკელმა IT მეწარმემ და Tesla-სა და Space X-ის შემქმნელმა. მასკმა განაცხადა, რომ ხელოვნური ინტელექტი შეიძლება იყოს უფრო საშიში ვიდრე ბირთვული იარაღი და სერიოზულ საფრთხეს უქმნის კაცობრიობის არსებობას.

Google-მა დაისახა მიზნად შექმნას სუპერინტელექტი 2030 წლისთვის. ეს სუპერინტელექტი ჩანერგილი იქნება კომპიუტერულ სისტემაში, კერძოდ ინტერნეტში. იმ მომენტში, როდესაც მომხმარებელი ეძებს ინფორმაციას, სუპერინტელიგენცია გააანალიზებს ამ ადამიანის ფსიქოტიპს და მიაწვდის მას ინფორმაციას, რომელსაც ის მიზანშეწონილად მიიჩნევს. ამის შესახებ თავის წიგნში Google-ის დირექტორთა საბჭოს თავმჯდომარე ერიკ შმიდტი წერს. ხოლო ვინც უარს იტყვის ამ სისტემასთან დაკავშირებაზე, ის სთავაზობს სახელმწიფოსთვის პოტენციურად საშიშ სუბიექტებად განხილვას. ვარაუდობენ, რომ ამ სისტემის ფუნქციონირების განსახორციელებლად სახელმწიფო დონეზე მომზადდება საკანონმდებლო ბაზა.

ამრიგად, განვითარებული სუპერინტელექტი გახდება კაცობრიობის კონტროლის გლობალური ინსტრუმენტი. სუპერინტელექტის მოსვლასთან ერთად ადამიანი შეწყვეტს მეცნიერებას, ამას გააკეთებს სუპერინტელექტი, რომელიც მრავალჯერ აღემატება ადამიანის ტვინს მისი გამოვლინების ყველა ასპექტით.

მითითება:

Overmindარის ნებისმიერი გონება, რომელიც ძლიერ აღემატება კაცობრიობის წამყვან გონებას თითქმის ყველა სფეროში, მათ შორის სხვადასხვა სამეცნიერო კვლევებში, სოციალურ უნარებსა და სხვა სფეროებში.

სუპერინტელექტის შექმნის შედეგი იქნება ის, რომ ადამიანის სახეობა შეწყვეტს იყოს სიცოცხლის ყველაზე ინტელექტუალური ფორმა სამყაროს ჩვენთვის ცნობილ ნაწილში. ზოგიერთი მკვლევარი თვლის, რომ სუპერინტელექტის შექმნა არის ადამიანის ევოლუციის ბოლო ეტაპი, ისევე როგორც უკანასკნელი გამოგონება, რომლის გაკეთებაც კაცობრიობას დასჭირდება. რადგან ვარაუდობენ, რომ სუპერგონები შეძლებენ დამოუკიდებლად იზრუნონ შემდგომ სამეცნიერო და ტექნოლოგიურ პროგრესზე ბევრად უფრო ეფექტურად, ვიდრე ადამიანები.

ინფორმაცია ფიქრისთვის:

2007 წლიდან ბრიტანულ სასტუმროში ყოველწლიურ Google Zeitgeist კონფერენციას მასპინძლობს. საინტერესოა, რომ ამ შეხვედრაში მონაწილეობას იღებენ არა მხოლოდ მაღალტექნოლოგიური სპეციალისტები და ტრანსნაციონალური კორპორაციებისა და საერთაშორისო ბანკების წარმომადგენლები. შეიძლება დავასკვნათ, რომ ტრანსკონტინენტური კორპორაციებისა და საერთაშორისო ბანკების ლიდერები დაინტერესებულნი არიან სუპერინტელექტის შექმნით და შესაძლოა დააფინანსონ ეს პროექტი.

რასულ გირაალაევი

სავსებით სავარაუდოა, რომ ხელოვნური ინტელექტი (AI) იქნება მომავალი ტექნოლოგიური რევოლუციის საწინდარი. თუ ხელოვნური ინტელექტი განვითარდება იმ დონემდე, რომ მას შეუძლია ისწავლოს, იფიქროს და თუნდაც „იგრძნოს“, ეს ყველაფერი ადამიანის ჩარევის გარეშე, ყველაფერი, რაც ვიცით მსოფლიოს შესახებ, შეიცვლება თითქმის ერთ ღამეში. დადგება მართლაც ჭკვიანი ხელოვნური ინტელექტის ერა.

ღრმა გონება

სწორედ ამიტომ, ჩვენ ძალიან დაინტერესებული ვართ თვალყური ადევნოთ AI განვითარების მთავარ ეტაპებს, რომლებიც დღეს ხდება, მათ შორის Google-ის DeepMind ნერვული ქსელის განვითარებაში. ამ ნერვულმა ქსელმა უკვე შეძლო ადამიანის დამარცხება სათამაშო სამყაროში და Google-ის ახალი კვლევა აჩვენებს, რომ DeepMind-ის შემქმნელები ჯერ არ არიან დარწმუნებულები, AI ურჩევნიათ უფრო აგრესიულ თუ კოოპერატიულ ქცევას.

Google-ის გუნდმა შექმნა ორი შედარებით მარტივი სცენარი, რომელიც შეიძლება გამოყენებულ იქნას იმის შესამოწმებლად, შეუძლიათ თუ არა ნერვულ ქსელებს ერთად მუშაობა, ან დაიწყებენ თუ არა ერთმანეთის განადგურებას რესურსების ნაკლებობის შემთხვევაში.

რესურსების შეგროვება

პირველი სიტუაციის დროს, სახელწოდებით Gathering, DeepMind-ის ორ მონაწილე ვერსიას - წითელსა და ლურჯს - დაევალა მწვანე "ვაშლების" დაკრეფა დახურულ სივრცეში. მაგრამ მკვლევარები დაინტერესდნენ არა მხოლოდ იმაზე, თუ ვინ იქნება პირველი, ვინც მიაღწევს ფინიშის ხაზს. DeepMind-ის ორივე ვერსია შეიარაღებული იყო ლაზერით, რომლითაც მათ ნებისმიერ დროს შეეძლოთ მტრის გასასროლად და დროებით გამორთვა. ეს პირობები გულისხმობდა ორ მთავარ სცენარს: DeepMind-ის ერთ ვერსიას მოუწევდა მეორეს განადგურება და ყველა ვაშლის შეგროვება, ან ერთმანეთს მისცემდნენ დაახლოებით იგივე რაოდენობის მიღების საშუალებას.

გუგლის მკვლევარებმა, სულ მცირე, ათასჯერ რომ აწარმოეს სიმულაცია, აღმოაჩინეს, რომ DeepMind იყო ძალიან მშვიდობიანი და თანამშრომლობითი, როდესაც დახურულ სივრცეში უამრავი ვაშლი იყო დარჩენილი. მაგრამ როგორც რესურსები შემცირდა, DeepMind-ის წითელმა ან ლურჯმა ვერსიამ დაიწყო ერთმანეთზე თავდასხმა ან დახურვა. ეს სიტუაცია დიდწილად მოგვაგონებს ცხოველთა უმეტესობის, მათ შორის ადამიანების რეალურ ცხოვრებას.

რაც მთავარია, პატარა და ნაკლებად „ინტელექტუალური“ ნერვული ქსელები ხელს უწყობდნენ უფრო დიდ თანამშრომლობას ყველაფერზე. უფრო რთული, უფრო დიდი ქსელები ცდილობდნენ ღალატს და ეგოიზმს ექსპერიმენტების სერიის განმავლობაში.

მოძებნეთ "მსხვერპლი"

მეორე სცენარში, სახელწოდებით Wolfpack, წითელ და ლურჯ ვერსიებს სთხოვეს დაედგინათ არააღწერილი "მსხვერპლის" ფორმა. მათ შეეძლოთ მისი დაჭერა ცალ-ცალკე, მაგრამ მათთვის უფრო მომგებიანი იქნებოდა ამის გაკეთება ერთად. ყოველივე ამის შემდეგ, ბევრად უფრო ადვილია მსხვერპლის კუთხეში მოქცევა, თუ წყვილებში მუშაობთ.

მიუხედავად იმისა, რომ შედეგები შერეული იყო მცირე ჯაჭვებისთვის, უფრო დიდმა ვერსიებმა სწრაფად გააცნობიერეს, რომ თანამშრომლობა და არა კონკურენცია უფრო მომგებიანი იქნებოდა ამ სიტუაციაში.

"პატიმრის დილემა"

მაშ, რას გვაჩვენებს პატიმრის დილემის ეს ორი მარტივი ვერსია? DeepMind-მა იცის, რომ უმჯობესია ითანამშრომლოს, თუ საჭიროა მიზნის დადგენა, მაგრამ როდესაც რესურსები შეზღუდულია, ეს არის ღალატი, რომელიც კარგად მუშაობს.

ამ შედეგებში ყველაზე ცუდი ალბათ ის არის, რომ ხელოვნური ინტელექტის „ინსტინქტები“ ძალიან ჰგავს ადამიანურს და ჩვენ კარგად ვიცით, რასაც ისინი ზოგჯერ იწვევს.