Google e cientistas criam 5 pontos importantes sobre IA que devem ser discutidos

Google e cientistas criam 5 pontos importantes sobre IA que devem ser discutidos

Quando falamos de tecnologia e robótica, muitos fazem questão de citar as 3 leis da robótica, que basicamente são três conceitos-chaveS desenvolvidos pelo escritor Isaac Asimov, e que são demonstradas em filmes como o Eu, Robô (2004, 20th Century Fox)

Além de desenvolver máquinas, há também a necessidade do desenvolvimento da Inteligência Artificial, que em um futuro próximo poderá chegar inclusive a atribuir consciência e discernimento para as máquinas, práticas que são exploradas pelo Deep Learning. Claro, que além de todos os pontos positivos, onde a máquina poderia ser um aliado bem mais eficiente para o ser humano também há diversos problemas que essa atribuição de autonomia pode gerar.

Uma das empresas que mais investe nesse campo é o Google, que conta com diversas patentes ligadas à robótica. O novo passo tomado pela gigante das buscas, que hoje em dia é gigante em praticamente tudo onde atua, foi a atribuição de 5 questionamentos-chaves para a segurança da Inteligência artificial, desenvolvida em conjunto com cientistas da Universidade de Stanford e Berkeley.

Confira abaixo:

  • Evitar efeitos colaterais negativos: Como podemos garantir que um sistema de IA não vai perturbar seu ambiente de maneiras negativas enquanto procura alcançar seus objetivos, por exemplo, um robô de limpeza derrubar um vaso porque ele consegue limpar mais rápido fazendo isso?
  • Evitar hacking das recompensas: Como podemos evitar manipulação da função de recompensas? por exemplo, não queremos esse robô de limpeza simplesmente cobrindo sujeiras com materiais que ele não pode enxergar através.
  • Fiscalização escalável: Como podemos assegurar de maneira eficiente que o sistema de IA respeita aspectos do objetivo que são muito caros para serem frequentemente avaliados durante o treinamento? Por exemplo, se um sistema de IA entende o feedback humano enquanto ele realiza uma tarefa, ele precisa usar esse feedback de maneira eficiente porque perguntar muitas vezes seria irritante.
  • Exploração segura: Como nos asseguramos que um sistema de IA não vai fazer movimentos exploratórios com repercussões muito negativas? Por exemplo, talvez um robô de limpeza devesse tentar estratégias diferentes para esfregar, mas ele com certeza não deveria tentar colocar um esfregão molhado numa tomada.
  • Robustez para mudanças distribucionais: Como nos asseguramos que um sistema de IA reconhece e se comporta de maneira robusta quando vai para um ambiente muito diferente do seu ambiente de treinamento? Por exemplo, heurísticas aprendidas para uma fábrica podem não ser seguras o suficiente para um escritório.

 

Você concorda? Deixe seu comentário abaixo.

Fonte(s): Google Research Blog 

Sobre o Autor

Editor-chefe no Hardware.com.br, aficionado por tecnologias que realmente funcionam. Segue lá no Insta: @plazawilliam Elogios, críticas e sugestões de pauta: william@hardware.com.br
Leia mais
Redes Sociais:

Deixe seu comentário

X