Robótica

Robôs assassinos podem causar atrocidades em massa

Robôs assassinos podem causar atrocidades em massa



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Os robôs serão usados ​​como soldados no futuro. Na verdade, alguns robôs, bem como drones, já estão sendo implantados pelos militares. Robôs inteligentes e autônomos programados por humanos para atacar e matar podem cometer crimes no futuro. A menos que exista um tratado para robótica e Inteligência Artificial (IA) a ser usada com responsabilidade.

Ter a tecnologia disponível para construir robôs que matam não significa que temos que usá-la. Como o tio do Homem-Aranha disse certa vez, "com grande poder vêm grandes responsabilidades".

Especialistas em aprendizado de máquina e tecnologia militar dizem que seria tecnologicamente possível construir robôs que tomem decisões sobre quem alvejar e matar sem o envolvimento de um controlador humano. Como o reconhecimento facial e os algoritmos de tomada de decisão estão se tornando cada vez mais poderosos, seria mais fácil conseguir a criação de tais tipos de robôs.

Os riscos dos robôs assassinos

Pesquisadores em IA e políticas públicas estão tentando argumentar que robôs assassinos são uma má ideia na vida real. A criação de armas totalmente autônomas traria novos dilemas técnicos e morais.

Cientistas e ativistas, por esta razão, têm pressionado as Nações Unidas e os governos mundiais a reconhecer o problema e considerar uma proibição preventiva.

A IA pode ser usada como arma?

A resposta curta é sim. Assim como qualquer outra tecnologia existente, a Inteligência Artificial pode ser usada para o bem, mas também para matar. O reconhecimento facial e o reconhecimento de objetos são tecnologias que evoluíram nos últimos anos. Poderíamos dizer que eles se tornaram muito mais precisos, mas estão longe de ser perfeitos.

O reconhecimento facial e o reconhecimento de objetos são habilidades que provavelmente se tornarão essenciais como parte de um kit de ferramentas para armas autônomas letais (LEIS). No entanto, também é muito fácil enganar essas tecnologias, se alguém realmente quiser enganá-las.

Robôs militares: Presente e futuro

Os robôs militares são robôs autônomos controlados remotamente ou drones que foram projetados para aplicações militares. Os robôs militares podem ser usados ​​para transporte, busca e resgate, e também para ataque, com a implicação de matar humanos e até destruir cidades.

Alguns desses sistemas estão sendo implantados e outros estão em desenvolvimento. Alguns robôs militares são desenvolvidos sob estrito sigilo, a fim de impedir que outros saibam sobre sua existência.

Os Estados Unidos já voam drones militares sobre áreas onde os EUA estão em guerra ou envolvidos em operações militares. Até agora, os controladores humanos decidem quando esses drones vão disparar.

Embora as armas autônomas letais (LEIS) ainda não existam, - ou é o que pensamos - a tecnologia para substituir os controladores humanos por um algoritmo que toma a decisão de quando e o que atirar existe, de fato. Alguns pesquisadores de IA acreditam que as LAWS, na forma de pequenos drones, podem ser usadas como armas em menos de dois anos.

Embora os drones de hoje transmitam um feedback de vídeo para uma base militar, onde um soldado humano toma a decisão se o drone deve atirar no alvo ou não, com uma arma totalmente autônoma o soldado não tomará mais essa decisão. Em vez disso, um algoritmo tomaria a decisão.

Armas autônomas letais (LEIS): os humanos correm risco?

A era da guerra dirigida por máquinas não está muito longe no futuro. Os militares têm feito experiências com robôs que podem fazer parte do campo de batalha e usados ​​como armas assassinas. As guerras do futuro podem então ser mais infundidas de alta tecnologia e menos humanas. Que consequências isso traria para a humanidade?

O risco representado por armas autônomas letais (LEIS), também conhecidas como robôs assassinos, é real. Alguns pesquisadores de Inteligência Artificial (IA) têm muitos motivos para apoiar seu consenso de que o mundo deveria proibir o desenvolvimento e o emprego de armas autônomas letais.

A razão é muito simples: as potências militares poderiam produzir em massa um exército de robôs assassinos de maneira bastante barata. No entanto, a humanidade pode pagar um alto preço; a fabricação e ativação de robôs assassinos aumentaria a probabilidade de proliferação e matança em massa.

Robôs assassinos: um humano é sempre responsável por qualquer ação que um robô execute

Nesse ponto, surge a pergunta: quem deve ser responsável pelas ações de um robô? E que roboética deve ser aplicada a robôs autônomos letais? Durante uma guerra, ou mesmo durante um conflito menor, as coisas podem sair do controle. Os robôs assassinos devem assumir o controle total?

Os robôs destinados a serem usados ​​em um conflito de guerra como armas mecânicas incorporadas com Inteligência Artificial e Aprendizado de Máquina devem ter algum tipo de botão liga / desliga.

Hoje, as Três Leis da Robótica de Isaac Asimov representam mais problemas e conflitos para os roboticistas do que resolvem.

Roboticistas, filósofos e engenheiros estão vendo um debate contínuo sobre a ética da máquina. A ética da máquina --ou roboética - é uma proposta prática de como simultaneamente projetar e fornecer sanções éticas para robôs.

A roboética lida com o código de conduta que os engenheiros de design robótico devem implementar na Inteligência Artificial de um robô. Quem ou o que será responsabilizado quando ou se um sistema autônomo apresentar mau funcionamento ou causar danos a humanos?

As Três Leis da Robótica: Devem ser aplicadas a robôs assassinos?

Em 1942, o escritor de ficção científica Isaac Asimov introduziu as Três Leis da Robótica - também conhecidas como Leis de Asimov - em seu conto Corra em volta. Embora as Três Leis da Robótica de Asimov fizessem parte de um mundo fictício, elas poderiam ser um bom ponto de partida para a programação de robôs hoje.

Antes e se os governos implantarem armas autônomas letais, eles devem se certificar de que podem impedir que robôs assassinos projetados para serem implantados em zonas de guerra comecem uma guerra sozinhos ou causem atrocidades em massa, como matar civis.

Alguns podem pensar que as seguintes Leis da Robótica vão contra o que um soldado deve fazer. Talvez seja esse o ponto principal, afinal. Em outras palavras, talvez um humano não deva dar o trabalho sujo a uma máquina que ainda não é capaz de individualizar as situações e fazer um julgamento.

  • Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum dano

  • Um robô deve obedecer às ordens dadas por seres humanos, exceto onde tais ordens entrem em conflito com a Primeira Lei

  • Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Lei

Pare de robôs assassinos

Há uma campanha para Stop Killer Robots, uma coalizão de organizações não governamentais que buscam proibir preventivamente as armas autônomas letais (LEIS).

O Secretário-Geral da Organização das Nações Unidas (ONU) instou os Estados a agirem rapidamente para abordar as preocupações sobre os sistemas de armas autônomas letais em seu Relatório de 2020 sobre a Proteção de Civis em Conflitos Armados. Este é o primeiro relatório da ONU sobre proteção de civis desde 2013 a destacar as preocupações gerais sobre robôs assassinos.

No relatório de 2020, o Secretário-Geral António Guterres conclui que “todas as partes parecem estar de acordo que, no mínimo, é necessário manter o controle humano ou julgamento sobre o uso da força”. Ele também observa que “um número crescente de Estados-Membros apelou à proibição das LEIS”. Desde novembro de 2018, o Secretário-Geral da ONU expressou repetidamente seu desejo de um novo tratado internacional para banir robôs assassinos.

A campanha para Stop Killer Robots elogia as Nações Unidas para exortar os estados a concordar com "limitações e obrigações que devem ser aplicadas à autonomia em armas." Os Estados devem iniciar negociações agora sobre um novo tratado internacional para proibir armas totalmente autônomas enquanto retém o controle humano significativo sobre o uso da força.

Como matar um robô

Provavelmente, os fabricantes de robôs autônomos letais enviam seus robôs assassinos com um manual de instruções onde há uma opção de inserir remotamente um código de segurança para desativar um robô assassino.

Se isso não for uma opção, uma maneira confiável de matar um robô seria usando um pulso eletromagnético (EMP) para induzir uma alta corrente que queimará os circuitos do robô. Claro, isso supõe que o robô assassino não está protegido por uma Jaula de Faraday.


Assista o vídeo: What is McCarthyism? And how did it happen? - Ellen Schrecker (Agosto 2022).