Google criou carro que pode navegar em segurança pelas condições de tráfego mais congestionadas. Até agora esses carros percorreram cerca de meio milhão de milhas sem acidentes
Muito tempo atrás, o termo “existencialismo” tinha conotações de intelectuais franceses malvestidos tateando moças impressionáveis nos cafés de Paris, enquanto proferiam besteiras sobre a supremacia da experiência individual. Mas aquilo foi naquela época e isto é hoje, quando passou a ter uma interpretação menos solipsista. Como em “ameaças existenciais”, isto é, ameaças à existência de nossa espécie causadas pelo nosso domínio da tecnologia.
Vivemos com uma dessas ameaças — a do aniquilamento nuclear — desde meados dos anos 1940, e apesar da perspectiva desse pesadelo ter recuado um pouco não foi eliminada. Durante a era pós-guerra, porém, uma combinação de desenvolvimento econômico e progresso incrível em certas áreas da ciência e tecnologia não apenas abriu oportunidades notáveis para a sociedade, como também estabeleceu as bases para uma nova série de ameaças existenciais.
O aquecimento global (ou “vingança de Gaia”, como a chama James Lovelock) é uma das mais frequentemente discutidas. Afinal, o planeta realmente não precisa de nós e o aquecimento global pode lhe dar uma maneira de demonstrar isso. Mas hoje uma dupla de importantes acadêmicos e um rico empresário de software estão argumentando que há outras ameaças com as quais deveríamos nos preocupar.
Os acadêmicos são Martin Rees, ex-presidente da Sociedade Real e astrônomo real, e Huw Price, ocupante da cadeira Bertrand Russell de filosofia em Cambridge. O geek é Jaan Tallinn, cofundador do Skype, a empresa de telefonia pela Internet hoje propriedade da Microsoft.
Juntos eles montaram o Projeto Cambridge para Risco Existencial. Seu objetivo é tentar avaliar os perigos que podem surgir do progresso em inteligência artificial (IA), desenvolvimentos em biotecnologia e vida artificial, nanotecnologia e possíveis efeitos radicais da mudança climática antropogênica.
A maior parte desse assunto está acima do meu nível salarial, mas eu me interesso por IA. A linha de pensamento que leva à conclusão de que ela poderá um dia representar uma ameaça existencial pode ser cruamente resumida assim: os computadores estão ficando mais potentes a um ritmo quase exponencial, por isso um dia vamos chegar ao ponto em que eles possuirão inteligência artificial em nível humano. Como disse I.J. Good, um ex-colega de Alan Turing e o primeiro escritor a contemplar as implicações dessa possibilidade, essas máquinas “poderão projetar até máquinas melhores; haveria então inquestionavelmente uma ‘explosão de inteligência’ e a inteligência do homem ficaria muito para trás. Portanto, a primeira máquina ultrainteligente é a última invenção que o homem precisará fazer”. A única questão remanescente seria então se essas máquinas inteligentes se interessariam por manter os seres humanos como animais de estimação.
O trabalho de Good, “Especulações referentes à primeira máquina ultrainteligente”, foi publicado em 1965 e provocou um debate febril em ficção-científica, neurociência pop e círculos de computação, que se mantém desde então. A expressão “a singularidade” foi cunhada em 1993 por Vernor Vinge, um autor de ficção-científica, para descrever o momento em que os humanos deixam de ser as coisas mais inteligentes no planeta, e popularizada pelo inventor e futurista Ray Kurzweil em seu livro The Singularity is Near (A Singularidade está próxima).
Durante a maior parte daquele tempo, prestei pouca atenção ao debate. O campo da IA passou por vários ciclos de especulação exagerada, seguidos de relaxamentos empíricos, e embora tenha havido grandes avanços em robótica não parecia haver no horizonte nada que remotamente ameaçasse a cognição humana. É verdade, a lei de Moore — segundo a qual a potência da computação duplica a cada dois anos — continuava válida, mas a mera velocidade de processamento não é a mesma coisa que inteligência. E havia algumas coisas que os seres humanos fazem bem em que as máquinas tinham dificuldade.
Pelo menos eu pensava assim. Então o Google lançou seu projeto de veículo autônomo (ou carro autodirigível). Ao carregar um Toyota Prius absolutamente comum com 250 mil dólares de sensores e equipamento de informática, a companhia criou um veículo que pode navegar em segurança pelas condições de tráfego mais congestionadas. Até agora esses carros percorreram cerca de meio milhão de milhas sem acidentes, o que implica que os carros robóticos são na verdade muito mais seguros que os dirigidos por humanos.
Para mim, a implicação do carro Google não é necessariamente que a “singularidade” de Kurzweil está perto, mas que nossas suposições sobre o potencial dos computadores — e portanto da inteligência artificial — precisam de uma revisão urgente. Precisamos pensar seriamente sobre esse assunto, nas linhas demonstradas pelo filósofo David Chalmers em um excelente trabalho, ou por Erik Brynjolfsson e Andrew McAfee em seu livro Race Against the Machine (Corrida contra a máquina).
E precisamos que as instituições acadêmicas se preparem para o trabalho. É por isso que a iniciativa de Rees, Price e Tallinn é tão bem-vinda. E por que os filósofos franceses não precisam se apresentar.
The Guardian. Tradução: CartaCapital. Leia mais em guardian.co.uk