Robôs assassinos, a nova ameaça
Fonte: Outras Palavras, 05/07/2018
| Cenas de um vídeo ilustrativo apresentado em 2011 na Convenção das Nações Unidas sobre Armas Convencionais, em meio à campanha contra os robôs assassinos |
Fonte: Site DefesaNet Tecnologia, 22/10/2012
Quando os robôs ainda eram ficção cientifica
As três leis da robótica, propostas por Isaac Asimov em seu conto Círculo Vicioso (no original, Runaround), de outubro de 1941, incluído na coletânea Eu, Robô:
PRIMEIRA LEI
“Um robô não pode ferir um ser humano ou, por omissão, permitir que um humano seja ferido.”
SEGUNDA LEI
“Um robô deve obedecer às ordens dadas a ele por seres humanos, exceto quando tais ordens entram em conflito com a Primeira Lei.”
TERCEIRA LEI
“Um robô deve proteger a sua própria existência , contanto que tal proteção não entre em conflito com a Primeira ou a Segunda Lei.”
O professor Ronald C. Arkin, do Instituto de Tecnologia da Geórgia (Georgia Tech), propõe um plano de pesquisa de algoritmos de “regulação ética” para que tais armas, ao serem postas em combate, sejam capazes de disparar e suspender fogo de acordo com as leis de guerra internacionais, o que acredita ser uma meta factível em 10 a 20 anos.
Arkin cita um episódio documentado da guerra no Iraque, no qual o piloto de um helicóptero armado atirou em três supostos insurgentes que se moviam entre caminhões estacionados, divisados por infravermelho. Um sobreviveu e escondeu-se debaixo de um dos caminhões. Quando saiu, o piloto avisou que o homem estava ferido. Mesmo assim, recebeu do comando a ordem de liquidá-lo, em uma violação flagrante das leis de guerra. Asimovianamente , Arkin acredita que um drone de guerra autônomo poderia ser programado de modo a não disparar em situações como essa, agindo de forma “mais moral” do que soldados humanos.
Agora eis a questão:
Seriam os seres humanos menos humanos do que os robôs? Poderia a nossa compreensão Moral e Ética ser implantada em máquinas, mesmo sabendo que tais características são inerentes ao meio social em que se vive e ao senso individual de cada pessoa?? Não haveria o risco de interpretações diversas dos algorítimos implantados ou o desenvolvimento de uma consciência própria e, por consequência, senso moral e ético divergentes dos nossos, por parte desses seres cibernéticos???
E o pior... NÃO CORRERÍAMOS O RISCO DE SERMOS ELIMINADOS POR NOSSA PRÓPRIA CRIAÇÃO???

Nenhum comentário:
Postar um comentário