Sei sulla pagina 1di 3

ROBÔS ASSASSINOS POSSUÍDORES DE INTELIGÊNCIA ARTIFICIAL AMEAÇAM A

HUMANIDADE !!!

Entramos em um momento de nossa história em que tecnologias avançadas baseadas


em Inteligência Artificial (IA) podem se tornar cada vez mais propensas a ações não
intencionais que ameaçam a segurança e a autonomia dos seres humanos. E aqueles
entre nós que acreditam na segurança e autonomia dos seres humanos – a maioria no
topo da atual pirâmide de poder – não precisam ficar cada vez mais vigilantes dessa
ameaça crescente.

Os argumentos a favor e contra o desenvolvimento irrestrito da IA e sua integração nas


capacidades militares são os seguintes: aqueles a favor do desenvolvimento da IA
simplesmente apontam para o aumento da eficiência e precisão concedidas pelos
aplicativos de IA.

No entanto, seu zelo desenfreado tende a basear-se em uma confiança bastante


ingênua (ou fingida) na capacidade do governo, corporações e inteligência militar de se
policiarem para garantir que a IA não seja desencadeada no mundo de maneira
prejudicial aos indivíduos humanos.

O outro lado do argumento baseia sua desconfiança fundamental no desenvolvimento


atual da IA, na noção bem documentada de que, de fato, nossos atuais líderes
corporativos, governamentais e militares operam com base em sua própria agenda
estreita, que pouco considera a segurança e a autonomia dos seres humanos.

Ninguém está argumentando contra o desenvolvimento da Inteligência Artificial como


tal, para aplicação de maneiras que beneficiem clara e incontestavelmente a
humanidade. No entanto, como sempre, o grande dinheiro parece ser disponibilizado
em apoio à GUERRA, de um grupo de seres humanos tendo domínio e supremacia
sobre outroS, em vez de aplicativos que irão beneficiar toda a humanidade e
realmente ajudar a promover a paz no planeta.
Ex-engenheira da Google fala

Talvez não haja maneira de impedir completamente que os militares façam pesquisas
sobre aprimoramentos de IA em suas aplicações. No entanto, parece haver uma linha
clara de demarcação que muitos acham que não deve ser ultrapassada: dar aos
programas de IA autoridade exclusiva para decidir se um determinado indivíduo ou
grupo de seres humanos deve ser morto.

A engenheira de software, Laura Nolan, renunciou da Google no ano passado em


protesto, após ser enviada para trabalhar em 2017 no Project Maven, um projeto
usado para melhorar drasticamente a tecnologia militar de drones dos EUA e colocar
muito mais ônus na IA para determinar quem e o que devem ser bombardeados ou
alvejados. Ela sentiu que seu trabalho impulsionaria uma capacidade perigosa. Ela
percebeu que a capacidade de converter drones militares, por exemplo, em armas
autônomas não guiadas por humanos, “é apenas um problema de software
atualmente e que pode ser resolvido com relativa facilidade”.

Por meio dos protestos e renúncias de pessoas corajosas como Laura Nolan, a Google
permitiu que o contrato do Project Maven terminasse em março deste ano, depois que
mais de 3.000 de seus funcionários assinaram uma petição em protesto contra o
envolvimento da empresa. Deve ser indicativo para todos nós que esses grandes
gigantes corporativos não tomam decisões éticas por conta própria, uma vez que são
fundamentalmente amorais e continuam a exigir que os seres humanos envolvidos
falem e tomem medidas para que os interesses da humanidade sejam considerados.
Robôs assassinos

Desde que se demitiu, Nolan continuou seu ativismo em meio a notícias sobre o
desenvolvimento de ‘robôs assassinos’, máquinas de IA projetadas para operar
autonomamente no campo de batalha, com a capacidade de matar grandes
quantidades de combatentes inimigos. Ela pediu que todas as máquinas IA de matar
não operadas por seres humanos fossem proibidas. Ela se juntou à Campaign to Stop
Killer Robots (Campanha para Parar Robôs Assassinos) e informou diplomatas da ONU
em Nova Iorque e Genebra sobre os perigos que as armas autônomas representam.

Ao contrário dos drones, que são controlados por equipes militares muitas vezes a
milhares de quilômetros de onde a arma voadora está sendo usada, Nolan disse que os
robôs assassinos têm o potencial de fazer “coisas calamitosas para as quais não foram
originalmente programados”:

A probabilidade de um desastre é proporcional a quantas dessas máquinas estarão em


uma área específica ao mesmo tempo. Há chances de ocorrer atrocidades e
assassinatos ilegais, mesmo sob as leis da guerra, especialmente se centenas ou
milhares dessas máquinas forem implantadas.
Pode haver acidentes em larga escala, porque essas coisas começarão a se comportar
de maneiras inesperadas. É por isso que qualquer sistema avançado de armas deve
estar sujeito a um controle humano significativo, caso contrário, eles devem ser
banidos porque são imprevisíveis e perigosos demais.

Promessa de pesquisadores da IA?

Certamente, vemos manchetes populares como ‘Os principais pesquisadores da IA


dizem que não farão robôs assassinos‘, onde supostamente foram feitas promessas:

Mais de 2.600 pesquisadores e engenheiros de IA assinaram um compromisso de


nunca criar robôs assassinos autônomos, publicado hoje pelo Future of Life Institute.
Entre os signatários estão Elon Musk, os co-fundadores da Alphabet, DeepMind,
Mustafa Suleyman, Demis Hassabis e Shane Legg, além de Jeff Dean, da Google, e
Yoshua Bengio, da Universidade de Montreal.

No entanto, isso não significa que podemos abandonar nossas postagens e confiar que
as empresas que poderiam ganhar bilhões de dólares em contratos para avançar com
essas aplicações automatizadas se recusarão a faze-los se acharem que podem se
safar. De fato, são os olhos atentos e as poderosas palavras de pessoas conscientes
que até agora impediram que isso acontecesse.

Fonte: https://www.ovnihoje.com/2019/10/13/robos-assassinos-com-inteligencia-
artificial-ameacam-a-humanidade-diz-ex-engenheira-da-google/

Potrebbero piacerti anche