Robôs são uma ameaça à existência humana?
Google criou carro que pode navegar em segurança pelas condições de tráfego mais congestionadas. Até agora esses carros percorreram cerca de meio milhão de milhas sem acidentes
Muito tempo atrás, o termo “existencialismo” tinha conotações de intelectuais franceses malvestidos tateando moças impressionáveis nos cafés de Paris, enquanto proferiam besteiras sobre a supremacia da experiência individual. Mas aquilo foi naquela época e isto é hoje, quando passou a ter uma interpretação menos solipsista. Como em “ameaças existenciais”, isto é, ameaças à existência de nossa espécie causadas pelo nosso domínio da tecnologia.
Vivemos com uma dessas ameaças — a do aniquilamento nuclear — desde meados dos anos 1940, e apesar da perspectiva desse pesadelo ter recuado um pouco não foi eliminada. Durante a era pós-guerra, porém, uma combinação de desenvolvimento econômico e progresso incrível em certas áreas da ciência e tecnologia não apenas abriu oportunidades notáveis para a sociedade, como também estabeleceu as bases para uma nova série de ameaças existenciais.
O aquecimento global (ou “vingança de Gaia”, como a chama James Lovelock) é uma das mais frequentemente discutidas. Afinal, o planeta realmente não precisa de nós e o aquecimento global pode lhe dar uma maneira de demonstrar isso. Mas hoje uma dupla de importantes acadêmicos e um rico empresário de software estão argumentando que há outras ameaças com as quais deveríamos nos preocupar.
Os acadêmicos são Martin Rees, ex-presidente da Sociedade Real e astrônomo real, e Huw Price, ocupante da cadeira Bertrand Russell de filosofia em Cambridge. O geek é Jaan Tallinn, cofundador do Skype, a empresa de telefonia pela Internet hoje propriedade da Microsoft.
Juntos eles montaram o Projeto Cambridge para Risco Existencial. Seu objetivo é tentar avaliar os perigos que podem surgir do progresso em inteligência artificial (IA), desenvolvimentos em biotecnologia e vida artificial, nanotecnologia e possíveis efeitos radicais da mudança climática antropogênica.
A maior parte desse assunto está acima do meu nível salarial, mas eu me interesso por IA. A linha de pensamento que leva à conclusão de que ela poderá um dia representar uma ameaça existencial pode ser cruamente resumida assim: os computadores estão ficando mais potentes a um ritmo quase exponencial, por isso um dia vamos chegar ao ponto em que eles possuirão inteligência artificial em nível humano. Como disse I.J. Good, um ex-colega de Alan Turing e o primeiro escritor a contemplar as implicações dessa possibilidade, essas máquinas “poderão projetar até máquinas melhores; haveria então inquestionavelmente uma ‘explosão de inteligência’ e a inteligência do homem ficaria muito para trás. Portanto, a primeira máquina ultrainteligente é a última invenção que o homem precisará fazer”. A única questão remanescente seria então se essas máquinas inteligentes se interessariam por manter os seres humanos como animais de estimação.
O trabalho de Good, “Especulações referentes à primeira máquina ultrainteligente”, foi publicado em 1965 e provocou um debate febril em ficção-científica, neurociência pop e círculos de computação, que se mantém desde então. A expressão “a singularidade” foi cunhada em 1993 por Vernor Vinge, um autor de ficção-científica, para descrever o momento em que os humanos deixam de ser as coisas mais inteligentes no planeta, e popularizada pelo inventor e futurista Ray Kurzweil em seu livro The Singularity is Near (A Singularidade está próxima).
Durante a maior parte daquele tempo, prestei pouca atenção ao debate. O campo da IA passou por vários ciclos de especulação exagerada, seguidos de relaxamentos empíricos, e embora tenha havido grandes avanços em robótica não parecia haver no horizonte nada que remotamente ameaçasse a cognição humana. É verdade, a lei de Moore — segundo a qual a potência da computação duplica a cada dois anos — continuava válida, mas a mera velocidade de processamento não é a mesma coisa que inteligência. E havia algumas coisas que os seres humanos fazem bem em que as máquinas tinham dificuldade.
Pelo menos eu pensava assim. Então o Google lançou seu projeto de veículo autônomo (ou carro autodirigível). Ao carregar um Toyota Prius absolutamente comum com 250 mil dólares de sensores e equipamento de informática, a companhia criou um veículo que pode navegar em segurança pelas condições de tráfego mais congestionadas. Até agora esses carros percorreram cerca de meio milhão de milhas sem acidentes, o que implica que os carros robóticos são na verdade muito mais seguros que os dirigidos por humanos.
Para mim, a implicação do carro Google não é necessariamente que a “singularidade” de Kurzweil está perto, mas que nossas suposições sobre o potencial dos computadores — e portanto da inteligência artificial — precisam de uma revisão urgente. Precisamos pensar seriamente sobre esse assunto, nas linhas demonstradas pelo filósofo David Chalmers em um excelente trabalho, ou por Erik Brynjolfsson e Andrew McAfee em seu livro Race Against the Machine (Corrida contra a máquina).
E precisamos que as instituições acadêmicas se preparem para o trabalho. É por isso que a iniciativa de Rees, Price e Tallinn é tão bem-vinda. E por que os filósofos franceses não precisam se apresentar.
The Guardian. Tradução: CartaCapital. Leia mais em guardian.co.uk