E se a inteligência artificial servisse à humanidade em vez de substituí-la?
A expressão “inteligência artificial” foi usada pela primeira vez exatamente sessenta e dois anos atrás em uma conferência de um dos pioneiros da ciência da computação, John McCarthy, no Dartmouth College, para definir "a ciência e engenharia de produzir máquinas inteligentes".
De 1956 para cá, evoluímos muito no que se passou a chamar de “estudo e projeto de agentes inteligentes”, sendo que um agente inteligente é um sistema que percebe seu ambiente e toma atitudes que maximizam suas chances de sucesso .
Mas, aparentemente, não evoluímos nada em nossa visão do quadro como um todo. Continuamos pesquisando como fazer os computadores realizarem coisas que os humanos ainda fazemos melhor. E isso, inevitavelmente, coloca a inteligência humana em oposição à inteligência artificial.
Não que isso impeça as empresas de investirem cada vez mais em IA. Ou, talvez, devêssemos dizer: isso faz exatamente com que invistam mais nesse campo.
Mas há quem esteja pensando em outra opção: cooperação e não competição.
Joi Ito, diretor do MIT Media Lab, por exemplo, sugere que “em vez de pensar sobre a IA como algo separado ou adverso para os humanos, é mais útil e preciso pensar em máquinas que aumentem nossa inteligência coletiva”. Ele vai mais longe e diz que precisamos dar adeus para a inteligência artificial e falar alô para a inteligência estendida, querendo dizer com isso que precisamos de uma ferramenta para o bem de muitos, e não para o enriquecimento ou aproteção de poucos.
Ito não está sozinho nessa causa. Nesta sexta-feira, 22/6, o próprio Media Lab e a IEEE-SA, organização que estabelece os principais padrões globais das indústrias, anunciaram a criação do Global Council on Extended Intelligence - CXI, cujo objetivo é direcionar o talento e o dinheiro que está sendo gasto com a IA para projetos que visam melhorar a situação de todos. Isso inclui, por exemplo, ajudar as pessoas a ter o controle sobre suas próprias identidades, ainda que tecnologias como o reconhecimento facial estejam se tornando mais amplamente usadas, e encontrar maneiras de medir como a automação afeta o bem-estar dos trabalhadores, não apenas lucros da empresa e o PIB dos países.
Participam do CXI representantes da União Europeia, da Câmara dos Lordes do Reino Unido e dos governos da Índia e de Taiwan. Ele já está trabalhando no desenvolvimento de políticas que poderão ser usadas inicialmente por esses governos em relação a esses tópicos.
Há outros projetos preocupados com as consequências sociais da IA. Muitos pesquisadores acadêmicos e corporativos já estão estudando como manter os algoritmos éticos, uma vez que os primeiros algoritmos em uso mostraram-se tendenciosos em relação a mulheres ou negros, por exemplo. Algumas empresas, incluindo o Google e a Microsoft, criaram processos ou diretrizes de ética interna para impor restrições ao uso da tecnologia.
As diretrizes do Google foram divulgadas no começo do mês, depois que os funcionários protestaram contra o envolvimento da empresa em um projeto de inteligência artificial do Pentágono, afirmando que não queriam que os avanços em aprendizado de máquina do Google estivessem envolvidos na morte de pessoas. Konstantinos Karachalios, diretor responsável pela implementação de padrões no IEEE-SA, diz que o CXI um movimento mais amplo no qual os tecnólogos estão questionando se o desenvolvimento tecnológico deve ser guiado apenas pela busca do lucro e do poder. "O tempo da inocência acabou e os profissionais técnicos estão acordando", diz ele. "Precisamoos apoiar essas pessoas."