Armas letais autônomas com inteligência artificial
Empresas de Inteligência Artificial, Pesquisadores, Engenheiros, Cientistas, Empresários e Outros prometem não desenvolver armas letais autônomas. Eles tomam medidas concretas contra robôs assassinos, jurando nunca desenvolvê-los.Estocolmo, Suécia (18 de julho de 2018) - Após anos expressando preocupações, os líderes da AI tomaram, pela primeira vez, ações concretas contra armas autônomas letais, assinando uma promessa de “não participar nem apoiar o desenvolvimento, fabricação, comércio, ou uso de armas autônomas letais”.
A promessa foi assinada até hoje por mais de 160 empresas e organizações relacionadas a IA de 36 países e 2.400 pessoas de 90 países. Os signatários do compromisso incluem o Google DeepMind, a University College London, a Fundação XPRIZE, a ClearPath Robotics/OTTO Motors, a Associação Européia para IA (EurAI), a Sociedade Sueca de IA (SAIS), Demis Hassabis, o parlamentar britânico Alex Sobel, Elon Musk, Stuart Russell, Yoshua Bengio, Anca Dragan e Toby Walsh.
Max Tegmark, presidente do Instituto Futuro da Vida (FLI), que organizou o esforço, anunciou a promessa em 18 de julho em Estocolmo, na Suécia, durante a Conferência Internacional Conjunta sobre Inteligência Artificial (IJCAI), que atrai mais de 5 mil dos maiores pesquisadores de IA do mundo. O SAIS e o EurAI também foram organizadores do IJCAI deste ano.
"Estou animado em ver os líderes de IA mudarem de conversa para ação, implementando uma política que os políticos até agora não conseguiram pôr em prática. A IA tem um enorme potencial para ajudar o mundo, se estigmatizarmos e evitarmos seu abuso. Armas de IA que decidem autonomamente matar pessoas são tão repugnantes e desestabilizadoras quanto as armas biológicas, e devem ser tratadas da mesma maneira.” Disse Tegmark.
Armas letais autônomas
Os sistemas de armas autônomas letais (LAWS) são armas que podem identificar, mirar e matar uma pessoa, sem um “laço” humano. Isto é, nenhuma pessoa toma a decisão final de autorizar força letal: a decisão e autorização sobre se alguém morrerá ou não, será deixado para o sistema de armas autônomo. (Isso não inclui os drones de hoje, que estão sob controle humano. Também não inclui sistemas autônomos que apenas defendem contra outras armas, já que “letal” implica matar um humano.)
O compromisso começa com a declaração:
“A inteligência artificial (IA) está preparada para desempenhar um papel crescente nos sistemas militares. Há uma urgente oportunidade e necessidade para os cidadãos, formuladores de políticas e líderes de distinguir entre usos aceitáveis e inaceitáveis dessa tecnologia”.Outro importante organizador do juramento, Toby Walsh, cientista e professor de Inteligência Artificial da Universidade de New South Wales, em Sidney, aponta as espinhosas questões éticas que envolvem Armas letais autônomas. Ele afirma:
“Não podemos entregar a decisão sobre quem vive e quem morre para máquinas. Eles não têm a ética para fazê-lo. Encorajo você e suas organizações a se comprometerem a garantir que a guerra não se torne mais terrível dessa maneira”.Ryan Gariepy, fundador e CTO da Clearpath Robotics e da OTTO Motors, tem sido um forte oponente de armas autônomas letais. Ele diz:
“A Clearpath continua acreditando que a proliferação de sistemas letais de armas autônomas continua sendo um perigo claro e presente para os cidadãos de todos os países do mundo. Nenhuma nação estará segura, não importa quão poderosa seja. As preocupações da Clearpath são compartilhadas por uma ampla variedade de outras empresas e desenvolvedores de sistemas autônomos e esperamos que os governos ao redor do mundo decidam investir seu tempo e esforço em sistemas autônomos que tornem suas populações mais saudáveis, seguras e produtivas em vez de sistemas O único uso é o desdobramento da força letal ”.
Além das questões éticas associadas a Armas letais autônomas, muitos defensores de uma proibição internacional das armas estão preocupados com o fato de que elas serão difíceis de controlar, mais fáceis de hackear, mais propensas a acabar no mercado negro e mais fáceis para os maus atores obterem. Isso é algo que pode tornar-se desestabilizador para todos os países, como ilustrado no vídeo “Slaughterbots” (abaixo) lançado pela FLI.
Em dezembro de 2016, a Conferência de Revisão da Convenção sobre Armas Convencionais (CCW) iniciou uma discussão formal sobre Armas letais autônomas na ONU. Na reunião mais recente de abril, vinte e seis países anunciaram apoio a algum tipo de proibição, incluindo a China. E tal proibição não é sem precedentes. Armas biológicas, armas químicas e armas espaciais também foram proibidas não apenas por razões éticas e humanitárias, mas também pela ameaça desestabilizadora que representavam.
Conforme os drones se tornam ferramentas de guerra, empresas pensam na solução
A próxima reunião da ONU sobre LAWS será realizada em agosto, e os signatários do compromisso esperam que este compromisso encoraje os legisladores a desenvolver um compromisso no nível de um acordo internacional entre países. Como o compromisso afirma:“Nós, abaixo assinados, convocamos os governos e os líderes do governo a criar um futuro com fortes normas, regulamentos e leis internacionais contra armas autônomas letais. (…) Pedimos que empresas e organizações de tecnologia, bem como líderes, formuladores de políticas e outros indivíduos, se juntem a nós nessa promessa.”Traduzido de: Future of Life
http://www.suprimatec.com/armas-letais-autonomas/
#Armas #Autonomia #InteligenciaArtificial #IA #LAWS #Normas #Regulamentacao #ONU #GoogleDeepmind #Robos #Politica #Militar #Hackers #Segurança