A DeepMind abriu acesso gratuito a um ambiente de aprendizado de máquina virtual. O Google testou a inteligência artificial DeepMind nas condições do "dilema do prisioneiro" Inteligência artificial da mente profunda

O Google compra a empresa de inteligência artificial DeepMind, com sede em Londres. Fontes chamam o valor da transação em mais de 500 milhões de dólares. A compra é confirmada oficialmente por representantes do Google.


O que o Google dará a essa aquisição? Primeiro, permitirá competir com outras grandes empresas de tecnologia, graças ao seu foco em aprendizado profundo. O Facebook, por exemplo, contratou recentemente o professor Yann LeKanna para liderar seu próprio desenvolvimento de inteligência artificial. Atualmente, o supercomputador Watson da IBM está focado especificamente em aprendizado profundo, e o Yahoo adquiriu recentemente a LookFlow, uma startup de análise de fotos, que também está avançando nesse assunto.

A DeepMind foi fundada pelo neurocientista Demis Hassabis, ex-prodígio do xadrez, desenvolvedor do Skype e Kazaa, Jaan Tallinn, e pelo pesquisador Shane Legg.

A mudança do Google permitirá que a equipe da gigante da tecnologia preencha seu próprio campo de especialistas em inteligência artificial, e a aquisição foi supervisionada pessoalmente pelo CEO do Google, Larry Page, dizem as fontes. Se todos os três fundadores trabalharem para o Google, eles se juntarão ao inventor, empresário, autor e futurista Ray Kurzweil, que em 2012 se tornou CTO da divisão de aprendizado de máquina e processamento de linguagem do Google.

Kurzweil afirmou que queria construir um mecanismo de busca tão perfeito que pudesse se tornar um verdadeiro "amigo cibernético".

Desde a aquisição da Nest no início deste mês, os críticos levantaram preocupações sobre quantos dados do usuário serão enviados ao Google. A compra da Boston Dynamics no mês passado também levou ao debate de que o Google planeja se tornar um fabricante de robôs.

No entanto, o Google está bem preparado para acalmar nossos temores sobre suas últimas aquisições. Fontes dizem que o Google decidiu estabelecer um conselho de ética que supervisionará o desenvolvimento da inteligência artificial dentro da DeepMind.

No entanto, a empresa terá que esclarecer o que exatamente a inteligência artificial da DeepMind faz. O site da empresa atualmente possui uma página de destino com uma descrição relativamente vaga que diz que a DeepMind é "uma empresa de ponta" e está construindo os algoritmos do futuro para simulações, comércio eletrônico e jogos. Em dezembro, a startup contava com 75 funcionários.

Os principais patrocinadores da startup são Founders Fund e Horizons Ventures. A DeepMind foi fundada há três anos.

Em 2012, Larry Wasserman, professor do Carnegie Mellon Institute, escreveu que “uma startup vai construir um sistema que pensa. Achei que era pura loucura até descobrir quantos bilionários famosos haviam investido na empresa.”

6 de dezembro de 2016 às 00:41

DeepMind abriu acesso gratuito a um ambiente virtual de aprendizado de máquina

  • Ciência popular,
  • Inteligência artificial ,
  • Jogos e consolas de jogos

Recentemente, representantes da divisão DeepMind (agora parte da holding Alphabet) anunciaram o fornecimento de acesso gratuito aos desenvolvedores ao código-fonte da plataforma DeepMind Lab. Este é um serviço de aprendizado de máquina baseado no Quake III, projetado para treinar inteligência artificial. Nomeadamente, aprender a resolver problemas no espaço tridimensional sem intervenção humana. A plataforma é baseada no motor de jogo Quake III Arena.

Dentro do mundo do jogo, a IA ganha a forma de uma esfera e a habilidade de voar, estudando o espaço ao redor. O objetivo definido pelos desenvolvedores é ensinar uma forma fraca de IA a “entender” o que está acontecendo e responder a várias situações que ocorrem no mundo virtual. O "personagem" pode realizar várias ações, mover-se pelo labirinto, explorar o ambiente imediato.

“Estamos tentando desenvolver várias formas de IA que podem realizar uma variedade de tarefas, desde simplesmente explorar o mundo do jogo até realizar ações e analisar suas consequências”, diz Shane Legg, cientista-chefe da DeepMind.

Os especialistas esperam que a IA seja capaz de aprender por tentativa e erro. Os jogos neste caso são quase ideais. Por exemplo, DeepMind usou anteriormente (e está usando agora) o console de jogos Atari para ensinar a rede neural a executar as ações sequenciais necessárias para o jogo.

Mas um mundo 3D aberto e modificável fornece um ambiente muito mais promissor para o aprendizado de IA do que o mundo plano dos brinquedos graficamente simples do Atari. A IA no mundo 3D possui tarefas claras que mudam sequencialmente de tal forma que a experiência adquirida na resolução de cada tarefa anterior acaba sendo útil para a IA durante a resolução da próxima.

A vantagem do ambiente 3D é que ele pode ser usado para treinar sistemas de computador para responder a vários problemas que um robô pode esperar no mundo real. Com a ajuda desse simulador, os robôs industriais são treinados sem problemas. E trabalhar com um ambiente virtual é extraordinariamente mais fácil em alguns casos do que treinar tais sistemas “manualmente”.

Ao mesmo tempo, a maioria das redes neurais modernas são desenvolvidas para resolver um problema específico (processamento de imagens, por exemplo). Os desenvolvedores da nova plataforma prometem que ela ajudará a criar uma forma universal de IA capaz de resolver um grande número de tarefas. Além disso, neste caso, o sistema de computador não precisará da ajuda de pessoas. A geração do ambiente para a rede neural ocorre toda vez em uma ordem aleatória.


De acordo com os desenvolvedores da plataforma, ela ajuda a aprender IA da mesma forma que as crianças aprendem. “Como você ou eu exploramos o mundo quando criança”, um funcionário da DeepMind deu um exemplo. “A comunidade de aprendizado de máquina sempre foi muito aberta. Publicamos cerca de 100 artigos por ano e abrimos o código de muitos de nossos projetos."

Agora, o Google DeepMind abriu o código-fonte do DeepMind Lab, postado no GitHub. Graças a isso, qualquer pessoa pode baixar o código da plataforma e modificá-lo para atender às suas necessidades. Representantes do projeto dizem que especialistas conectados podem criar novos níveis de jogo por conta própria, carregando seus próprios projetos no GitHub. Isso pode ajudar toda a comunidade a atingir seu objetivo com mais rapidez e eficiência.

Este projeto não é o único da DeepMind. No mês passado, seus representantes firmaram um acordo de cooperação com a Activision Blizzard Inc. O objetivo é o ambiente de Starcraft 2 no campo de testes de inteligência artificial. Talvez outros desenvolvedores de jogos em breve se juntem a este projeto. A propósito, a IA no ambiente de jogo não leva nenhuma vantagem sobre o inimigo, usando apenas para avançar, como uma pessoa.

Na prática, isso significa que a IA do Google precisará prever o que o inimigo está fazendo a qualquer momento para responder adequadamente às ações do “inimigo”. Além disso, será necessário responder rapidamente ao que saiu do planejado. Tudo isso testará o próximo nível de recursos de inteligência artificial. “Em última análise, queremos aplicar essas habilidades para resolver problemas globais”, disse Demis Hassabis, fundador da Deepmind (que foi comprada pelo Google em 2014 e agora a IA está sendo desenvolvida com base nas conquistas da empresa adquirida).

Especialistas em IA estão dando aprovação cautelosa ao projeto. “O bom é que eles fornecem um grande número de tipos de ambiente”, disse o cofundador da OpenAI, Ilya Sutskevar. "Quanto mais ambientes um sistema encontrar, mais rápido ele evoluirá", continuou ele. De fato, o ambiente de aprendizagem 3D AI contém mais de 1000 níveis e tipos de ambiente.

Zoubin Gahrahmani, professor de Cambridge, acredita que o DeepMind Lab e outras plataformas para aprimorar o desenvolvimento da inteligência artificial estão impulsionando o progresso ao permitir que os pesquisadores acessem o ambiente desenvolvido. No entanto, projetos como

Os pesquisadores do Google Deepmind revelaram um novo tipo de sistema de inteligência artificial, o chamado Differentiable Neural Computer, DNC. O sistema combina a capacidade de aprendizado das redes neurais com as habilidades dedutivas da IA ​​tradicional. Sua descrição foi publicada na revista Natureza, um novo trabalho é dedicado na mesma edição da revista, uma breve releitura do trabalho pode ser encontrada no blog Deepmind.

As redes neurais mais simples são um sistema de previsão, regressão, cuja tarefa é combinar os dados de entrada com uma determinada resposta. Por exemplo, uma rede neural simples pode reconhecer personagens com base em suas imagens. Nesse sentido, a rede neural pode ser considerada como uma função matemática, e uma função diferenciável. Treinar uma rede neural em tal paradigma significa otimizar essa função usando métodos matemáticos padrão (uma explicação acessível de como ocorre o treinamento pode ser lida).

A capacidade de aprender com dados sem programação humana direta é a principal vantagem das redes neurais. No entanto, as redes neurais mais simples não são Turing completas, ou seja, elas não podem fazer todos coisas que os programas algorítmicos tradicionais são capazes (o que, no entanto, não significa que eles não possam fazer alguns dessas coisas são melhores que programas). Um dos motivos para isso é a falta de memória nas redes neurais, com as quais é possível operar com dados de entrada e armazenar variáveis ​​locais.

Há relativamente pouco tempo, surgiu um tipo mais complexo de redes neurais, nas quais essa desvantagem foi eliminada - as chamadas redes neurais recorrentes. Eles não apenas armazenam informações sobre o estado de aprendizado (uma matriz de pesos dos neurônios), mas também informações sobre o estado anterior dos próprios neurônios. Como resultado, a resposta dessa rede neural é influenciada não apenas pelos dados de entrada e pela matriz de peso, mas também por seu histórico imediato. A rede neural mais simples desse tipo pode, por exemplo, prever de forma “inteligente” o próximo caractere do texto: treinando a rede neural em dados do dicionário, será possível obter a resposta “l” para o caractere “l” se os caracteres anteriores eram “h”, “e” e “l”, mas uma resposta diferente é “o”, se os anteriores fossem “h”, “e”, “l” e novamente “l” (a palavra “ olá” vai acabar, veja a inserção).

Um exemplo de uma rede neural recorrente com uma camada oculta. Você pode ver como o feed de dados altera o estado da rede. Os pesos treinados dos neurônios são armazenados nas matrizes W_xh, W_hy e uma matriz especial W_hh, que é típica apenas para redes recorrentes.

blog Andrej Karpathy

As redes neurais recorrentes têm se mostrado muito bem ao gerar música ou texto "no estilo" de algum autor, em cujo corpus ocorreu o treinamento, em * e, recentemente, em sistemas e assim por diante (por exemplo,).

Falando formalmente, mesmo as redes neurais recorrentes mais simples são Turing-completas, mas sua importante desvantagem reside na natureza implícita do uso da memória. Se na máquina de Turing a memória e a calculadora estão separadas (o que permite alterar sua arquitetura de maneiras diferentes), então nas redes neurais recorrentes, mesmo nas mais avançadas delas (LSTM), a dimensão e a natureza do manuseio da memória são determinado pela arquitetura da própria rede neural.

Para corrigir essa falha inerente às redes LSTM, os cientistas da DeepMind (todos eles fazem parte da equipe de autores do novo artigo) propuseram recentemente a arquitetura das chamadas Neural Turing Machines (Máquinas de Turing Neurais). Nele, a calculadora e a memória são separadas, como nas máquinas de Turing comuns, mas, ao mesmo tempo, o sistema mantém as propriedades de uma função diferenciável, o que significa que pode ser treinado por exemplos (usando o método de retropropagação) em vez de explicitamente programado. O novo sistema, um computador neural diferenciável, ou DNC, é baseado na mesma arquitetura, mas a comunicação entre a calculadora e a memória é organizada de forma muito mais flexível: implementa os conceitos não apenas de memorização, mas também de reconhecimento contextual e esquecimento (uma seção separada é dedicada a comparar os dois sistemas). novo artigo).

De forma simplista, o trabalho do DNC pode ser representado da seguinte forma. O sistema consiste em uma calculadora, que pode ser tocada por quase qualquer rede neural recorrente, e memória. A calculadora possui módulos especiais para acesso à memória, e acima da memória existe um “add-on” especial na forma de uma matriz que armazena o histórico de seu uso (mais detalhes abaixo). A memória é uma matriz N×M, onde N i linhas são as células principais onde os dados são escritos (na forma de vetores de dimensão M).


Arquitetura DNC: as linhas de dados são mostradas como linhas com quadrados pretos e brancos - elas representam simplesmente números positivos e negativos no vetor. Pode-se observar que a leitura possui três módulos de trabalho C, B e F, ou seja, associativo, direto e inverso - são formas de comparar o vetor de entrada com o vetor na célula de memória. A memória é N×M. A mais à direita mostra esquematicamente uma matriz de "meta-memória" N×N que armazena a sequência de acesso à memória.

A principal diferença entre DNC e sistemas relacionados é a natureza da manipulação de memória. Ele implementa simultaneamente vários conceitos novos ou emergentes: atenção seletiva, busca contextual, recordação por associação e esquecimento. Por exemplo, se computadores comuns acessam a memória explicitamente (“gravar dados tal e tal em uma célula tal e tal”), então no DNC, formalmente falando, a escrita ocorre em todas as células ao mesmo tempo, no entanto, o grau de influência de novos dados em antigos é determinado pelos pesos da atenção às diferentes células. Essa implementação do conceito é chamada de “atenção suave”, e é precisamente isso que garante a diferenciabilidade - sistemas com atenção difícil não atendem ao requisito de continuidade da função e não podem ser treinados usando o método de retropropagação (é usado o aprendizado por reforço). No entanto, mesmo a "atenção suave" no sistema DNC é implementada "bastante difícil" na prática, então ainda se pode falar sobre escrever ou ler de uma determinada linha da matriz de memória.

A "atenção suave" é implementada no sistema em três modos. A primeira é a busca contextual, que permite ao DNC completar dados incompletos. Por exemplo, quando a entrada da calculadora é um pedaço de alguma sequência que se assemelha àquela já armazenada na memória, então o operador read com atenção no modo de busca de contexto encontra a string mais próxima na composição e a “mistura” com os dados de entrada .

Em segundo lugar, a atenção às diferentes partes da memória pode ser determinada pela história de seu uso. Este histórico é armazenado em uma matriz N×N, onde cada célula N(i,j) corresponde a uma pontuação próxima a 1 se a entrada na linha i foi seguida por uma entrada na linha j (ou zero se não). Essa "matriz de metamemória" é uma das diferenças fundamentais entre o novo sistema DNC e o antigo NTM. Ele permite que o sistema "lembre-se" sequencialmente de blocos de dados se eles ocorrerem com frequência no contexto um do outro.

Em terceiro lugar, um modo especial de atenção permite ao sistema controlar a escrita em diferentes linhas de memória: armazenar o importante e apagar o sem importância. A linha é considerada tanto mais cheia quanto mais vezes foi escrita, mas a leitura da linha pode, ao contrário, levar ao seu apagamento gradual. A utilidade de tal função acaba sendo óbvia no exemplo de treinamento baseado no DNC de um simples repetidor (a rede neural deve reproduzir com precisão a sequência de dados que foi alimentada a ela). Para tal tarefa, com a possibilidade de apagar, mesmo uma pequena quantidade de memória é suficiente para repetir um número ilimitado de dados. Deve-se notar aqui que é muito fácil implementar um repetidor programaticamente, mas fazê-lo com base em uma rede neural, devido ao aprendizado por reforço, é uma tarefa muito mais difícil.


Esquema de operação de um repetidor implementado com base em DNC. O tempo no diagrama vai da esquerda para a direita. A parte superior mostra os dados que o controlador recebe na entrada: primeiro, uma coluna de dez barras pretas (todas zeros), depois várias brancas e pretas, depois novamente várias brancas e pretas, mas em uma sequência diferente. Abaixo, onde a saída do controlador é exibida da mesma forma, vemos primeiro barras pretas e, a seguir, uma reprodução quase exata da sequência de padrões (a mesma mancha branca da entrada). Em seguida, uma nova sequência é alimentada na entrada - com um atraso, ela é reproduzida novamente na saída. O gráfico do meio mostra o que acontece neste momento com as células de memória. Quadrados verdes - escrita, rosa - leitura. A saturação mostra o "poder de atenção" para esta célula em particular. Pode ser visto como o sistema primeiro grava os padrões recebidos na célula 0, depois 1 e assim por diante até 4. Na próxima etapa, o sistema recebe novamente apenas zeros (campo preto) e, portanto, para de gravar e começa a tocar padrões, lendo-os de células na mesma sequência, como eles chegaram lá. Bem na parte inferior, é mostrada a ativação das portas que controlam a liberação da memória.

Alex Graves e outros, Nature, 2016

Os cientistas testaram o sistema resultante em várias tarefas de teste. O primeiro deles foi o recém-desenvolvido teste padronizado de compreensão de texto, bAbI, desenvolvido por pesquisadores do Facebook. Nele, o sistema de IA recebe um pequeno texto onde atuam alguns heróis, e então você precisa responder a uma pergunta de acordo com o texto (“João foi ao jardim, Maria pegou uma mamadeira de leite, João voltou para casa .Pergunta: Onde está o João?”).

Neste teste sintético, o novo sistema mostrou uma baixa taxa de erro recorde: 3,8 por cento contra 7,5 por cento do recorde anterior - nisso superou as redes neurais LSTM e NTM. Curiosamente, neste caso, tudo o que o sistema recebeu na entrada foi uma sequência de palavras que, para uma rede neural não treinada, não fazia sentido a princípio. Ao mesmo tempo, os sistemas tradicionais de IA que já passaram neste teste receberam frases bem formalizadas com uma estrutura rígida: ação, ator, verdade, etc. A rede neural recorrente com memória dedicada foi capaz de descobrir o papel das palavras nas mesmas frases de forma totalmente independente.

Um teste significativamente mais difícil foi o teste de compreensão de gráficos. Também foi implementado como uma sequência de frases, mas desta vez eles descreveram a estrutura de alguma rede: um metrô de Londres real ou uma típica árvore genealógica. A semelhança com o teste bAbI reside no fato de que os atores no texto padronizado também podem ser representados como nós do grafo, e suas relações como arestas. Ao mesmo tempo, nos textos bAbI, o gráfico acaba sendo bastante primitivo, incomparável com o tamanho do metrô de Londres (a complexidade de entender o esquema do metrô por uma rede neural pode ser melhor compreendida se você lembrar que sua descrição é dado em palavras, e não na forma de uma imagem: tente memorizar você mesmo o esquema do metrô de qualquer grande cidade e aprenda a responder a perguntas sobre isso).

Depois de ser treinado em um milhão de exemplos, o computador DNC aprendeu a responder às perguntas do metrô com 98,8% de precisão, enquanto o sistema baseado em LSTM quase não deu conta da tarefa - deu apenas 37% de respostas corretas (os números são dados para a tarefa mais simples como "onde vou parar se eu passar tantas estações ao longo de tal linha, mudar de lugar ali e passar por tantas outras estações". DNC também lidou com isso).

Um experimento semelhante foi realizado com uma árvore genealógica: o programa recebia uma sequência de frases formais sobre relações de parentesco em uma grande família e deveria responder a perguntas como "quem é o primo de segundo grau de Masha por parte de mãe". Ambos os problemas são reduzidos a encontrar um caminho em um grafo, que é resolvido de maneira bastante simples da maneira tradicional. No entanto, o valor do trabalho reside no fato de que, neste caso, a rede neural encontrou uma solução de forma totalmente independente, baseada não em algoritmos conhecidos da matemática, mas com base em exemplos e em um sistema de reforço durante o treinamento.

Gráfico da velocidade de resolução do problema SHRDLU pelos sistemas DNC (verde) e LSTM (azul).

O terceiro teste foi um teste SHRDLU "clássico" ligeiramente simplificado, no qual você precisa mover alguns objetos virtuais pelo espaço virtual de acordo com um resultado final específico que você precisa obter no final. O sistema DNC recebeu novamente uma descrição do estado atual do espaço virtual na forma de sentenças formalizadas, então recebeu uma tarefa da mesma forma e respondeu com um texto consistente sobre como mover objetos. Como em outros testes, o DNC provou ser significativamente mais eficiente do que os sistemas LSTM, o que é claramente visto nos gráficos de taxa de aprendizado.

Correndo o risco de mais uma vez repetir coisas óbvias, não posso deixar de enfatizar que a aparente simplicidade das tarefas nas quais o DNC foi testado é realmente aparente. No sentido de que não reflete a complexidade dos problemas reais que um sistema como o DNC poderá enfrentar no futuro. Claro, do ponto de vista dos algoritmos existentes, a tarefa de encontrar um caminho no metrô é apenas um absurdo - qualquer um pode baixar um aplicativo em seu telefone que pode fazer isso. Ele também calcula o tempo com as transferências e indica em qual carro é melhor sentar. Mas afinal, todos esses programas até agora foram criados por uma pessoa, e no DNC ele “nasce” por si só, no processo de aprender com exemplos.

Na verdade, há uma coisa muito importante que quero dizer sobre a simplicidade das tarefas de teste. Um dos maiores desafios no aprendizado de máquina é onde obter os dados para treinar o sistema. Receba esses dados "manualmente", ou seja, crie você mesmo ou com a ajuda de pessoas contratadas, muito caro. Qualquer projeto de aprendizado de matemática precisa de um algoritmo simples que possa criar gigabytes de novos dados para treinamento de maneira fácil e barata (bem, ou você precisa acessar bancos de dados prontos). Um exemplo clássico: para testar os sistemas de reconhecimento de caracteres, as pessoas não escrevem novas e novas letras com as mãos, mas usam um programa simples que distorce as imagens existentes. Se você não tiver um bom algoritmo para obter uma amostra de treinamento (ou, por exemplo, tal algoritmo não pode ser criado em princípio), o sucesso no desenvolvimento será quase o mesmo da bioinformática médica, que é forçada a trabalhar apenas com dados reais e, portanto, dados realmente "ouro" (resumindo: não muito bem-sucedido).

Foi aqui que os autores do artigo usaram algoritmos prontos para resolver problemas em um gráfico - apenas para obter milhões de pares corretos de perguntas e respostas. Não há dúvida de que a facilidade de criar uma amostra de treinamento determinou a natureza dos testes que testaram o novo sistema. No entanto, é importante lembrar que a arquitetura DNC em si nada tem a ver com a simplicidade desses testes. Afinal, mesmo as redes neurais recorrentes mais primitivas podem não apenas traduzir textos e descrever imagens, mas também escrever ou gerar esboços (de ouvido do autor, é claro). O que podemos dizer sobre sistemas tão avançados e realmente "inteligentes" como o DNC.

Alexander Ershov

Atualmente, muitas empresas estão envolvidas no desenvolvimento de inteligência artificial (IA). Já foram criadas suas formas mais simples, capazes de realizar operações mentais primitivas.

gigante da internet Google ativamente engajados no desenvolvimento da IA. Em 2014, esta empresa adquiriu uma empresa start-up profundoMentetecnologias por US$ 400 milhões. Curiosamente, foi a Deep Mind Technologies que desenvolveu um dispositivo que combina as propriedades de uma rede neural e os recursos de computação de um computador. Os cientistas estão confiantes de que esse desenvolvimento aproximará a humanidade da criação de uma inteligência artificial completa.

O dispositivo Deep Mind Technologies é um computador que reproduz a forma como o cérebro humano armazena e gere informação, nomeadamente o departamento de memória de curto prazo. A base do dispositivo é uma espécie de rede neural, cuja estrutura é semelhante à estrutura do cérebro humano, composta por neurônios interconectados. A peculiaridade da IA ​​é que, após completar uma série de tarefas simples, o computador pode usar os dados armazenados para realizar tarefas mais complexas. Assim, a IA tem a propriedade de autoaprendizagem e o desejo de evolução, o que pode levar ao confronto entre IA e humanos.

De acordo com o físico mundialmente famoso Stephen Hawking, a inteligência artificial representa uma ameaça para a humanidade. Ele afirmou isso em uma entrevista à BBC: “As formas primitivas de inteligência artificial que existem hoje provaram sua utilidade. No entanto, acho que o desenvolvimento de uma inteligência artificial completa pode acabar com a raça humana. Mais cedo ou mais tarde, o homem criará uma máquina que sairá do controle e superará seu criador. Tal mente tomará a iniciativa e se aperfeiçoará a um ritmo cada vez maior. As possibilidades das pessoas são limitadas por uma evolução muito lenta, não poderemos competir com a velocidade das máquinas e perderemos.

A opinião de Hawking também é compartilhada por outros cientistas e especialistas, incluindo Elon Musk, um conhecido empresário americano de TI e criador da Tesla e do Space X. Musk disse que a IA pode ser mais perigosa do que as armas nucleares e representa uma séria ameaça à existência da humanidade.

O Google estabeleceu a meta de criar uma superinteligência até 2030. Essa superinteligência será incorporada a um sistema de computador, em particular na Internet. No momento em que o usuário estiver buscando informações, a superinteligência analisará o psicótipo dessa pessoa e lhe dará as informações que considerar adequadas. Eric Schmidt, presidente do conselho de administração do Google, escreve sobre isso em seu livro. E aqueles que se recusam a se conectar a este sistema, ele propõe considerar como sujeitos potencialmente perigosos para o estado. Supõe-se que para a implementação do funcionamento deste sistema, será elaborado um quadro legislativo a nível estadual.

Assim, a superinteligência desenvolvida se tornará um instrumento global de controle sobre a humanidade. Com o advento da superinteligência, a pessoa deixará de fazer ciência, isso será feito pela superinteligência, que será muitas vezes superior ao cérebro humano em todos os aspectos de sua manifestação.

Referência:

supermenteé qualquer mente que é muito superior às mentes líderes da humanidade em quase todas as áreas, incluindo uma variedade de pesquisas científicas, habilidades sociais e outras áreas.

O resultado da criação de uma superinteligência será que a espécie humana deixará de ser a forma de vida mais inteligente na parte do universo que conhecemos. Alguns pesquisadores acreditam que a criação de uma superinteligência é o último estágio da evolução humana, bem como a última invenção que a humanidade precisará fazer. Porque se supõe que as supermentes serão capazes de cuidar independentemente do progresso científico e tecnológico subsequente com muito mais eficiência do que as pessoas.

Informações para reflexão:

Desde 2007, um hotel britânico recebe a conferência anual Google Zeitgeist. Curiosamente, não apenas especialistas em alta tecnologia e representantes de corporações transnacionais e bancos internacionais participam desta reunião. Pode-se concluir que os líderes de corporações transcontinentais e bancos internacionais estão interessados ​​em criar uma superinteligência e possivelmente financiar este projeto.

Rasul Girayalaev

Parece bastante provável que a inteligência artificial (IA) será o prenúncio da próxima revolução tecnológica. Se a IA se desenvolver a ponto de aprender, pensar e até “sentir”, tudo sem nenhuma intervenção humana, tudo o que sabemos sobre o mundo mudará quase da noite para o dia. A era da inteligência artificial verdadeiramente inteligente chegará.

mente profunda

É por isso que estamos tão interessados ​​em rastrear os principais marcos no desenvolvimento da IA ​​que estão acontecendo hoje, incluindo o desenvolvimento da rede neural DeepMind do Google. Essa rede neural já conseguiu vencer um humano no mundo dos jogos, e um novo estudo do Google mostra que os criadores do DeepMind ainda não têm certeza se a IA prefere um comportamento mais agressivo ou cooperativo.

A equipe do Google criou dois cenários relativamente simples que podem ser usados ​​para testar se as redes neurais podem funcionar juntas ou se começam a se destruir quando se deparam com a falta de recursos.

Reunindo recursos

Durante a primeira situação, chamada Gathering, duas versões participantes do DeepMind - vermelho e azul - receberam a tarefa de colher "maçãs" verdes dentro de um espaço fechado. Mas os pesquisadores estavam interessados ​​\u200b\u200bna questão não apenas de quem será o primeiro a chegar à linha de chegada. Ambas as versões do DeepMind estavam armadas com lasers que podiam usar para atirar no inimigo a qualquer momento e desativá-lo temporariamente. Essas condições implicavam em dois cenários principais: uma versão do DeepMind teria que destruir a outra e coletar todas as maçãs, ou elas permitiriam uma à outra obter aproximadamente o mesmo número.

Executando a simulação pelo menos mil vezes, os pesquisadores do Google descobriram que o DeepMind era muito pacífico e cooperativo quando havia muitas maçãs deixadas em um espaço fechado. Mas, à medida que os recursos diminuíam, a versão vermelha ou azul do DeepMind começou a atacar ou desligar uma à outra. Essa situação lembra em grande parte a vida real da maioria dos animais, incluindo os humanos.

Mais importante, redes neurais menores e menos "inteligentes" favoreceram uma maior colaboração em tudo. As redes maiores e mais complexas tendiam a favorecer a traição e o egoísmo ao longo da série de experimentos.

procurando por "vítima"

No segundo cenário, chamado Wolfpack, as versões vermelha e azul foram solicitadas a rastrear uma forma indefinida de "vítima". Eles poderiam tentar pegá-la separadamente, mas seria mais lucrativo para eles tentarem fazer isso juntos. Afinal, é muito mais fácil encurralar a vítima se você estiver trabalhando em duplas.

Embora os resultados tenham sido mistos para as cadeias menores, as versões maiores rapidamente perceberam que a colaboração em vez da competição seria mais benéfica nessa situação.

"Dilema do Prisioneiro"

Então, o que essas duas versões simples do dilema do prisioneiro nos mostram? DeepMind sabe que é melhor cooperar se for necessário rastrear um alvo, mas quando os recursos são limitados, é a traição que funciona bem.

Talvez o pior desses resultados seja que os "instintos" da inteligência artificial são muito semelhantes aos humanos e sabemos bem a que eles às vezes levam.