228 Shares 7096 views

Google testou DeepMind inteligência artificial em um "dilema do prisioneiro"

Parece provável que a inteligência artificial (AI) é um prenúncio da próxima revolução tecnológica. Se o AI será desenvolvido até o ponto em que será capaz de aprender, pensar e até mesmo "sentir", e tudo isso sem qualquer intervenção humana, todos nós sabemos sobre o mundo mudou quase de noite. Vem a era da inteligência artificial verdadeiramente inteligente.


DeepMind

É por isso que é tão interessante para manter o controle dos principais marcos no desenvolvimento do ICS que estão ocorrendo, incluindo o desenvolvimento de uma rede neural do Google DeepMind. Esta rede neural tem sido capaz de derrotar o ser humano no mundo do jogo, e um novo estudo do Google, mostra que os criadores ainda não DeepMind certeza se o AI prefere um comportamento mais agressivo ou cooperativa.

equipe do Google criou duas roteiro relativamente simples que você pode usar para verificar se a rede neural pode trabalhar em conjunto, ou irá destruir uns aos outros quando confrontados com o problema da falta de recursos.

cobrança dos recursos

Na primeira situação, chamada Gathering envolveu duas versões DeepMind – vermelho e azul – tarefa de limpeza verde "maçãs" dentro do espaço fechado foi colocado. Mas os pesquisadores estavam interessados na questão não é apenas sobre quem virá primeiro a linha de chegada. Ambas as versões DeepMind foram armados com lasers, que eles poderiam usar a qualquer momento para disparar contra o inimigo e desativá-lo temporariamente. Estas condições são assumidas dois cenários principais: uma versão DeepMind era destruir o outro e recolher todas as maçãs, ou eles iriam deixar o outro obter a mesma quantidade.

Simulação prazo, pelo menos, mil vezes, os pesquisadores do Google descobriu que DeepMind foi muito tranquilo e pronto para cooperar, quando em um espaço confinado era um monte de maçãs. Mas com recursos decrescentes, versão vermelha ou azul DeepMind começou a atacar e desativar o outro. Esta situação é, em grande medida semelhante à vida real da maioria dos animais, incluindo seres humanos.

O que é ainda mais importante, cada vez menos redes neurais "inteligentes" preferiu uma cooperação mais estreita em todos. Mais complexos, grandes redes são geralmente preferidos traição e egoísmo ao longo de uma série de experimentos.

Procure por "vítima"

No segundo cenário, chamado de Wolfpack, versão vermelha e azul pediu para rastrear a forma caseira de uma "vítima". Eles poderiam tentar pegá-la sozinha, mas para eles seria mais rentável para tentar fazê-lo juntos. Afinal, muito mais fácil de conduzir a vítima em um canto, se você operar em conjunto.

Embora os resultados foram misturados, no caso de pequenas redes, versões maiores rapidamente percebeu que a cooperação ao invés da competição nesta situação será mais favorável.

"Dilema do Prisioneiro"

Então, o que estes dois versão simples do "dilema do prisioneiro" nos mostrar? DeepMind sabe que a melhor maneira de trabalhar, se você quiser acompanhar o alvo, mas quando os recursos são limitados, ele funciona bem traição.

Provavelmente a pior coisa nestes resultados que o "instinto" de inteligência artificial é muito semelhante ao humano, e nós estamos bem cientes do que eles, por vezes, causar.