* Por Pyr Marcondes

*Continuando a nossa conversa (caso você perdeu, veja a Parte I)

Esse texto abaixo foi retirado da newsletter da Singularity University, que recebo periodicamente. Eles defendem a tese da exponencialidade. Que todos os problemas humanos vão ser resolvidos. Sabe por quem? Pela AI. Aí, depois, perto da data que o Azimov previu, vamos virar máquinas imortais. Mas essa é uma história para outra ocasião. Voltando ao artigo.

Nele esta narrada a historinha singela de um projeto de AI do Google em que a Inteligência Artificial enganou as instruções humanas e, em busca do que seria para ela mais eficiência, cuspiu resultados esdrúxulos e perigosos. Ela “interpretou” imagens de ruas e regiões para o sistema Google Maps e reconfigurou as imagens segundo sua própria vontade. Resultado: os mapas não tinham nada a ver com a realidade. E são esses mapas que todos nós, além de empresas e governos, muitas vezes usamos para nossa vida cotidiana. Tudo errado.

No texto, o redator cita orgulhoso como o time de AI
do Google conseguiu reverter a cagada do seu próprio sistema de inteligência
Artificial, que saiu pensando sozinho, por conta própria, usando para isso um
outro sistema de AI que enganou as enganações do sistema original. Juro que é
isso que está escrito no post. Ufa! Mas e todos os demais empreendimentos de AI
do mundo, como ficam?

Não basta? Tome mais.

A Avast, uma das maiores empresas de segurança digital
do mundo, acaba de divulgar relatório em que alerta que a AI, mais e mais, vai
evoluir sozinha, burlando as instruções humanas e enganando seus próprios
criadores.

Em matéria publicada recentemente, fica assim o resumo dessa ópera: “A Avast lança relatório anual sobre as ameaças que irão impactar o mundo digital no ano de 2019. Entre elas, a “DeepAttacks”, que gera conteúdo criado por inteligência artificial para escapar dos controles de segurança da própria inteligência artificial, provocando sérios danos aos humanos.

Aumentará o uso de Inteligência Artificial para burlar a própria segurança da IA, como se verificou no ano passado, quando um algoritmo enganou o outro, trocando um sinal de “pare” por outro de “velocidade de 70 KM por hora”.

Fu*%$!
Leis regulatórias já!

Minha posição é que deveríamos buscar, através de
direito instituído em leis (portanto, sim, sou a favor do controle legal das
pesquisas de AI), a defesa da vida na Terra. É isso, caso tenha dúvida, que
está em jogo. O fim dela, aliás.

Na
verdade, gostaria que todos lessem o que vem abaixo, mas escrevi, antes e acima
de tudo, de mim para minha própria consciência. E volta. Um bumerangue de
preocupação e consciência digital sobre o destino de todos nós.

Quero pelo menos deixar registrado, antes que me façam androide. Ou a meus filhos e netos. E aos seus também.

As três primeiras regras desse eventual HUMAN INTELLIGENCE MANIFEST já foram
escritas há décadas. Começo por aí minhas citações. Essas regras você,
provavelmente, já conhece, mas nunca elas foram mais atuais do que agora.

Trata-se das Três Leis da Robótica, escritas por Isaac Azimov, em 1942. Azimov, como você sabe, escreveu uma série de romances sobre o avanço da tecnologia, particularmente, da evolução da robótica. Seu livro possivelmente mais famoso é I, Robot, que inspirou o filme como o mesmo nome, com Will Smith (até Hollywood anda preocupada com o tema).

Lá vão:

1. A robot may not injure a human being or, through inaction, allow a human being to come to harm (tradução: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano se machuque.).

2. A robot must obey orders given it by human beings except where such orders would conflict with the First Law. (tradução: Um robô deve obedecer a ordens dadas por seres humanos, exceto quando tais ordens entrem em conflito com a Primeira Lei.)

3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Law. (tradução: Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a primeira ou segunda lei.)

Elas e apenas elas, por si só, se transformadas em
lei, já nos defenderiam de grande parte do pior. São, obviamente, peça de
ficção. Científica, no caso. Mas os princípios são válidos e claros,
endereçando a preocupação precoce de Azimov diante de um perigo que talvez nem
ele mesmo imaginasse que fosse, da fato, virar real. Suas histórias acontecem
em 2050…..até a data em que a comunidade científica hoje prevê como aquela em
que finalmente ocorrerá a superioridade das máquinas sobre o Homem.

Mas vamos a textos bem mais recentes.

Artificial
ou Humano? Ou os dois? Ou nenhum dos dois?

Uma das preocupações que está no coração da
discussão sobre a evolução do aprendizado das máquinas, ou Machine Learning, é
que elas não dominam a lógica do senso comum, não raciocinam, verdadeiramente,
em última análise.

São, sim, capazes de aprender sozinhas, e de forma evolutiva, regras e formas esquemáticas e sequenciais de dedução lógica, algorítmica. Mas não são, no entanto, embedadas da faculdade de julgar, sentir, apreciar, fazer juízo, entender, perceber. Não até hoje. E fica difícil para nós, agora, imaginar que, mesmo que um robô mimetize a tristeza humana e chore, que de fato ele venha a estar triste. Digo, sentindo, profundamente …tristeza. Ou alegria. Você entendeu.

Inteligência Artificial é “garbage in, garbage out”, como dizem os próprios
cientistas. Ou seja, se entra lixo, sai lixo. Nada muito mais que isso.

E quem está controlando o que entra hoje na
cabecinha oca, e de fato, bem burra, de vários experimentos de AI no mundo é o
povinho crú que citei lá em cima. Pelamordedeus!

Um dos preocupados com esse impasse tecnológico, que
é também ético e vital (já que, literalmente, afeta a continuidade da vida)
é Yann LeCun, pesquisador de deep-learning e atual head de pesquisa de AI
do Facebook.

LeCun concorda com todas as preocupações em curso.
Acha que tem muito dado invasivo sendo controlado indevidamente, que máquinas
não raciocinam, nem tem senso comum. Em suas palavras para a Wired: “Eu tenho basicamente dito isso
repetidamente nos últimos quatro anos ”.”.

LeCun, contudo, é um otimista e acredita que isso
será superado no futuro. Pela própria AI. Aí, em minha opinião, mora o perigo.
Explico. Há uma linha de cientistas, são até os mais conscientes e preocupados
com o descontrole das máquinas, que defende que a evolução da AI deveria ir no
caminho de que máquinas tivessem bom senso e razoabilidade. Outros que não. Que
esse é exatamente o caminho que pode piorar as coisas.

É o meu caso. Acho que não rola. O próprio LeCun tem
suas dúvidas, você vai ver adiante.

Elon Musk, como você possivelmente já leu, concorda
comigo (hahahaha…eu concordo com ele). Foi o caso em vida, também, de Stephen
Hawking. Para eles e tanta gente tecnologicamente qualificada, esse momento
nunca chegará. Burrão que sou, estou entre eles. É meu ponto aqui.

O Instituto Paul Allen, criado pelo precocemente
falecido fundador, com Bill Gates, da Microsoft, tem uma verba sem fim só para
pesquisar AI. E um de seus princípios e buscas maiores, preocupados exatamente
com o rumo sem rumo da prosa, é tornar a AI mais segura para os seres humanos,
tentando que ela seja exatamente mais “razoável”. É a busca da
máquina em direção a sua própria humanização. E razoabilidade humana.

O milionário já havia percebido, anos trás, o risco
da AI. E criou um instituto, igualmente milionário, só para pesquisar como
evitar maiores danos a Humanidade.

Voltando a LeCun, leia trecho da reportagem da Wired: “Sitting beneath the images from 2001, LeCun makes a bit of a heretical point himself. Sure, making artificial intelligence more humanlike helps AI to navigate our world. But directly replicating human styles of thought? It’s not clear that’d be useful. We already have humans who can think like humans; maybe the value of smart machines is that they are quite alien from us. They will tend to be more useful if they have capabilities we don’t have,” he tells me. “Then they’ll become an amplifier for intelligence. So to some extent you want them to have a nonhuman form of intelligence … You want them to be more rational than humans.” In other words, maybe it’s worth keeping artificial intelligence a little bit artificial”.

Ou seja, deixemos as máquinas, máquinas, e
mantenhamos os humanos, humanos. Exatamente no caminho inverso do que propõem
os experimentos de vários setores da comunidade científica mundial,
destacando-se aí, como você certamente sabe, os conceitos e arrazoados
futuristas de Ray Kurzweill e Peter Diamandis, da já citada Singularity
University.

*A nossa conversa ainda não acabou, quero expor outras ideias sobre o tema.

* Pyr Marcondes é jornalista, consultor, autor de livros e empreendedor.

Publicação Original


0 comentário

Deixe um comentário

Avatar placeholder