AI

Ética da IA: benefícios e riscos dos sistemas de inteligência artificial

Ética da IA: benefícios e riscos dos sistemas de inteligência artificial



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

A convergência da disponibilidade de uma grande quantidade de big data, a velocidade e extensão das plataformas de computação em nuvem e o avanço de algoritmos sofisticados de aprendizado de máquina deram origem a uma série de inovações em Inteligência Artificial (IA).

Em teoria, o impacto benéfico dos sistemas de IA no governo se traduz na melhoria dos serviços de saúde, educação e transporte em cidades inteligentes. Outras aplicações que se beneficiam da implementação de sistemas de IA no setor público incluem cadeia de suprimentos de alimentos, energia e gestão ambiental.

Na verdade, os benefícios que os sistemas de IA trazem para a sociedade são grandes, assim como os desafios e as preocupações. A curva de aprendizado de tecnologias em evolução implica em cálculos errados e erros, resultando em impactos prejudiciais imprevistos.

Estamos vivendo em uma época em que é fundamental que a possibilidade de danos aos sistemas de IA seja reconhecida e tratada rapidamente. Assim, identificar os riscos potenciais causados ​​por sistemas de IA significa que um plano de medidas para combatê-los deve ser adotado o mais rápido possível.

As organizações do setor público podem, portanto, antecipar e prevenir futuros danos potenciais por meio da criação de uma cultura de inovação responsável para desenvolver e implementar sistemas de IA éticos, justos e seguros.

Dito isso, todos os envolvidos no design, produção e implantação de projetos de IA, que incluem cientistas de dados, engenheiros de dados, especialistas de domínio, gerentes de entrega e líderes departamentais, devem considerar a ética e segurança de IA uma prioridade.

Ética da inteligência artificial e roboética

A ética da Inteligência Artificial, ou ética da IA, compreende um conjunto de valores, princípios e técnicas que empregam padrões amplamente aceitos de certo e errado para orientar a conduta moral no desenvolvimento e implantação de tecnologias de Inteligência Artificial.

A ética do robô, também conhecida como roboética ou ética da máquina, preocupa-se com as regras que devem ser aplicadas para garantir o comportamento ético dos robôs e também como projetar robôs éticos. A roboética lida com preocupações e dilemas morais, como se os robôs representarão uma ameaça aos humanos a longo prazo ou se o uso de alguns robôs, como robôs assassinos em guerras, pode se tornar problemático para a humanidade.

Os roboticistas devem garantir que os sistemas autônomos possam exibir um comportamento eticamente aceitável em situações em que robôs, sistemas de IA e outros sistemas autônomos, como veículos autônomos, interajam com humanos.

Inteligência artificial, automação e ética de IA

A Inteligência Artificial (IA) e a automação estão mudando dramaticamente e influenciando nossa sociedade. Aplicar os princípios da ética da IA ​​ao projeto e implementação de sistemas algorítmicos ou inteligentes e projetos de IA no setor público é fundamental. A ética da IA ​​garantirá que o desenvolvimento e a implantação da Inteligência Artificial sejam éticos, seguros e totalmente responsáveis.

O novo mundo digital interconectado alimentado pela tecnologia 5G está entregando um grande potencial e ganhos rápidos no poder da Inteligência Artificial para uma sociedade melhor. A inovação e a implementação da IA ​​já estão causando impacto na melhoria dos serviços de saúde, educação e transporte até a cadeia de suprimentos de alimentos, energia e planos de gestão ambiental, para citar apenas alguns.

Com os rápidos avanços na capacidade de computação e no acesso a grandes quantidades de big data, os sistemas de Inteligência Artificial e Aprendizado de Máquina continuarão a melhorar e evoluir. Em apenas alguns anos no futuro, os sistemas de IA serão capazes de processar e usar dados não apenas com mais velocidade, mas também com mais precisão.

Como sempre, com o poder vem uma grande responsabilidade. Apesar das vantagens e benefícios que tecnologias como a Inteligência Artificial trazem ao mundo, elas podem causar danos irreparáveis ​​aos humanos e à sociedade se forem mal utilizadas ou mal projetadas. O desenvolvimento de sistemas de IA deve sempre ser responsável e desenvolvido em direção à sustentabilidade ideal para benefício público.

Ética da Inteligência Artificial e danos potenciais causados ​​por sistemas de IA

A ética e a segurança da IA ​​devem ser uma prioridade no projeto e implementação de sistemas de IA. A AI Ethics surge para evitar danos individuais e sociais causados ​​pelo uso indevido, abuso, design deficiente ou consequências negativas não intencionais de sistemas de IA.

De acordo com o Dr. David Leslie, líder do tema de ética dentro do programa de políticas públicas e pesquisador de ética no The Alan Turing Institute em Londres, Inglaterra, os danos potenciais causados ​​por sistemas de IA incluem o seguinte:

  • Sistemas de IA: preconceito e discriminação

Os designers de sistemas de IA escolhem os recursos, métricas e estruturas analíticas dos modelos que permitem a mineração de dados. Assim, as tecnologias baseadas em dados, como a Inteligência Artificial, podem potencialmente replicar os preconceitos e preconceitos de seu designer.

Amostras de dados treinam e testam sistemas algorítmicos. No entanto, muitas vezes eles podem ser insuficientemente representativos das populações das quais estão tirando inferências; assim, criando possibilidades de resultados tendenciosos e discriminatórios devido a uma falha desde o início, quando o designer alimenta os dados nos sistemas.

  • Sistemas de IA: negação da autonomia individual, recurso e direitos

No passado, os sistemas de IA que automatizam as funções cognitivas eram atribuíveis exclusivamente a agentes humanos responsáveis. Hoje, os sistemas de IA tomam decisões, previsões e classificações que afetam os cidadãos.

Certas situações podem surgir quando tais indivíduos são incapazes de responsabilizar as partes responsáveis ​​pelos resultados. Uma das respostas mais comuns de humanos para justificar resultados negativos é culpar o sistema de IA, acrescentando que não há nada que eles possam fazer para mudar o resultado. Algo que não é real.

Tal resposta é totalmente ridícula, pois os sistemas de IA são projetados e programados por um projetista humano. Portanto, um ser humano é quem pode corrigir e mudar um resultado que não é satisfatório. Tomemos como exemplo um caso de lesões, ou uma consequência negativa, como uma lacuna de responsabilidade, que pode prejudicar a autonomia e violar os direitos das pessoas afetadas.

  • Sistemas de IA: resultados não transparentes, inexplicáveis ​​ou injustificáveis

Em alguns casos, os modelos de aprendizado de máquina podem gerar seus resultados operando em correlações de alta dimensão que estão além das capacidades interpretativas do raciocínio humano.

Esses são casos em que a lógica dos resultados produzidos por algoritmos que afetam diretamente os assuntos de decisão podem permanecer opacos para esses assuntos. Em alguns casos de uso, essa falta de explicação pode não ser uma causa de muitos problemas.

No entanto, em aplicativos onde os dados processados ​​podem abrigar traços de discriminação, parcialidade, injustiça ou injustiça, a falta de clareza do modelo pode ser profundamente problemática.

  • Sistemas de IA: invasões de privacidade

Os sistemas de IA representam ameaças à privacidade de duas maneiras:

- Como resultado de seus processos de design e desenvolvimento

- Como resultado de sua implantação

Os projetos de IA baseiam-se na estruturação e processamento de big data. Grandes quantidades de dados pessoais são coletados, processados ​​e utilizados para desenvolver tecnologias de IA. Na maioria das vezes, o big data é capturado e extraído sem obter o consentimento adequado do titular dos dados. Muitas vezes, algum uso de big data revela - ou coloca sob risco - informações pessoais, comprometendo a privacidade do indivíduo.

A implantação de sistemas de IA pode ter como alvo, definir o perfil ou orientar os sujeitos proprietários dos dados sem seu conhecimento ou consentimento. Isso significa que tais sistemas de IA estão infringindo a capacidade dos indivíduos de levar uma vida privada. A invasão da privacidade pode, conseqüentemente, prejudicar o direito de perseguir objetivos ou planos de vida livres de influências não escolhidas.

  • Sistemas de IA: isolamento e desintegração da conexão social

A capacidade dos sistemas de IA de curar experiências individuais e personalizar serviços digitais tem o potencial de melhorar a vida do consumidor e a entrega de serviços. Isso, que é um benefício, se feito da maneira certa, mas traz riscos potenciais.

Esses riscos podem não ser visíveis ou aparecer como riscos no início. No entanto, a automação excessiva pode potencialmente levar à redução da interação humano-a-humano e, com isso, resolver situações problemáticas em um nível individual não poderia ser mais possível.

A hiperpersonalização habilitada por algoritmos pode melhorar a satisfação do cliente, mas limita nossa exposição a visões de mundo diferentes das nossas, e isso pode polarizar as relações sociais.

Desde os tempos do filósofo grego Platão, sociedades bem ordenadas e coesas construíram relações de confiança humana, empatia e compreensão mútua. Conforme as tecnologias de Inteligência Artificial se tornam mais prevalentes, é fundamental que essas relações de confiança humana, ou empatia, ou compreensão mútua permaneçam intactas.

  • Sistemas de IA: resultados não confiáveis, inseguros ou de baixa qualidade

A implementação e distribuição de sistemas de IA que produzem resultados não confiáveis, inseguros ou de baixa qualidade podem ser o resultado de gerenciamento de dados irresponsável, processos de produção de design negligentes ou práticas de implantação questionáveis. Consequentemente, isso pode levar diretamente a danos ao bem-estar dos indivíduos, bem como ao bem-estar público.

Esses resultados também podem minar a confiança pública no uso responsável de tecnologias de IA socialmente benéficas. Além disso, eles podem criar ineficiências prejudiciais pela dedicação de recursos limitados a tecnologias de IA ineficientes ou mesmo prejudiciais.

Ética aplicada de Inteligência Artificial

Em seu guia,Compreendendo a Ética e Segurança da Inteligência Artificial: Um Guia para o Projeto Responsável e Implementação de Sistemas de IA no Setor Público, apoiado exclusivamente pelo Programa de Políticas Públicas do Instituto Alan Turing, o Dr. David Leslie escreve:

Quando os humanos fazem coisas que exigem inteligência, nós os consideramos responsáveis ​​pela precisão, confiabilidade e exatidão de seus julgamentos. Além disso, exigimos deles que suas ações e decisões sejam apoiadas por bons motivos e os responsabilizamos por sua justiça, equidade e razoabilidade de como tratam os outros. ”

De acordo com Marvin Minsky, que foi um cientista cognitivo americano, co-fundador do laboratório de IA do Instituto de Tecnologia de Massachusetts e um pioneiro da IA, Inteligência Artificial é a ciência que faz os computadores fazerem coisas que requerem inteligência quando feitas por humanos.

É essa definição padrão que nos dá uma pista sobre qual motivação levou ao desenvolvimento do campo da ética aplicada da Inteligência Artificial.

De acordo com o Dr. David Leslie, a necessidade de desenvolver princípios adaptados ao design e uso de sistemas de IA é que seu surgimento e expansão do poder de fazer coisas que exigem inteligência anunciou uma mudança de uma ampla gama de funções cognitivas em processos algorítmicos, que eles próprios não podem ser considerados diretamente responsáveis ​​nem imediatamente responsáveis ​​pelas consequências de seu comportamento.

Máquinas baseadas em programas, como sistemas de IA, não podem ser consideradas agentes moralmente responsáveis. Essa realidade deu espaço para a criação de uma disciplina que pudesse lidar com a brecha ética no âmbito da ciência aplicada da Inteligência Artificial.

Precisamente, é isso que as estruturas para a ética da IA ​​estão tentando preencher agora. Justiça, responsabilidade, sustentabilidade e transparência são princípios destinados a preencher a lacuna entre a nova agência inteligente de máquinas e sua falta fundamental de responsabilidade moral.

Por outro lado, quando os humanos fazem coisas que exigem inteligência, eles são responsabilizados. Em outras palavras, no nível atual em que a Inteligência Artificial está operando, os humanos são os únicos responsáveis ​​por suas criações baseadas em programas.

A implementação e o projeto de sistemas de Inteligência Artificial devem ser responsabilizados. Talvez no futuro, a IA Geral possa se tornar agentes morais com responsabilidade moral atribuída.

No entanto, por enquanto, os engenheiros e projetistas de sistemas de IA devem assumir a responsabilidade e ser responsabilizados pelo que criam, projetam e programam.


Assista o vídeo: ROBÔS DE ASSISTÊNCIA À SAÚDE E ANÁLISE DIAGNÓSTICA COM INTELIGÊNCIA ARTIFICIAL: ANÁLISE ÉTICO-JURÍD. (Agosto 2022).