Avançar para o conteúdo principal

Ética por detrás da Inteligência Artificial

A inteligência artificial (IA) tem vindo a assumir um papel cada vez mais relevante em diversos setores da nossa sociedade.

A ideia da existência de máquinas “pensantes”, que tomem decisões pelo Homem, levanta uma série de questões éticas que devem estar presentes aquando do desenvolvimento e incorporação da inteligência artificial. É fundamental investigar e avaliar as melhores abordagens à sua integração. 

Desde quando a tecnologia era nada mais que uma ideia presente em obras de ficção científica, muitos questionavam quais os limites da sua aplicação. Nas suas obras, o famoso escritor Isaac Asimov desenvolveu as “Três Leis da Robótica”, com o objetivo de tornar possível a coexistência entre o Homem e a IA: 

1ª Lei: um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal. 

2ª Lei: um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que tais ordens entrem em conflito com a Primeira Lei. 

3ª Lei: um robô deve proteger sua própria existência desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.


Imagem 1 – A Criação


Inteligência Artificial como uma Igual

Quando damos vida a uma máquina, levantamos questões éticas que, até então, diziam respeito somente à nossa espécie. Por exemplo, será que é necessário cumprir regras de etiqueta ao falar com um bot? Um robô sentiria mágoa se não o fizessemos?

Muitos pais já observam mudanças no comportamento dos filhos, são incorretos ao falar com a “Alexa” da família. Ao não sermos responsabilizados por ofender algo que consideramos um objeto, sentimo-nos no direito de o fazer.

Institute for the Future e outras instituições incentivam o debate sobre as nossas obrigações morais perante a Inteligência Artificial, incluindo o seu direito à “vida e liberdade”, assim como o dito sonho americano.


Aplicação militar da Inteligência Artificial

Recentemente, têm havido pesquisas intensivas de forma a desenvolver uma IA com a capacidade de aprender utilizando responsabilidades morais atribuídas. Estes resultados poderão ser aplicados na indústria militar, no desenvolvimento de robôs capazes de livre arbitrio, porém deve existir uma estrutura moral associada.

A primeira revolução foi a invenção da arma de fogo, de seguida a bomba nuclear e agora, as armas ofensivas autónomas. Com isto, a guerra tornar-se-á mais eficiente e, por consequência, mais letal.

A diferença entre drones e estas armas é o fator humano, um drone está sob o controlo do Homem enquanto que se conferirmos capacidade de decisão a estas máquinas não há necessidade desse controlo.

Ainda há questões de como se estabeleceria as responsabilidades de um crime cometido por uma arma autónoma.


Toby Walsh, professor de Inteligência Artificial da Universidade New South Wales fez a seguinte declaração: "É preciso legislar sobre o tema o mais rápido possível porque a tecnologia pode estar disponível dentro de pouco tempo, e é preciso tempo (para estabelecer o marco legal) e os diplomatas não trabalham muito rapidamente. Temos que tomar uma decisão hoje, dar forma ao nosso futuro e determinar se seguimos um caminho do bem. Apoiamos o chamado por uma série de diferentes organizações humanitárias para a proibição da ONU sobre armas autónomas ofensivas.”



Bibliografia

Martinha P. Manuela A. Carlos C. A Ética na Inteligência Artificial: Desafios. [Presentation] Conferência Ibérica de Sistemas e Tecnologias de Informação. Junho 2019. Available from: http://hdl.handle.net/10400.26/29146

Oseias P. Desafios Éticos e Morais da Inteligência Artificial. Available from: https://www.intelligenzait.com/portal/desafios-eticos-e-morais-da-inteligencia-artificial/

Sparks & Honey. AI Ethics and the Future of Humanity. Available from: https://medium.com/sparksandhoney/ai-ethics-and-the-future-of-humanity-9b05bc1df6b5#.vf0ag4j28

Gauchazh Geral. Inteligência artificial está a um passo de revolucionar a guerra. Available from: https://gauchazh.clicrbs.com.br/geral/noticia/2015/07/inteligencia-artificial-esta-a-um-passo-de-revolucionar-a-guerra-4812486.html



Comentários

Mensagens populares deste blogue

Introdução do Medicamento no Mercado

A introdução de um medicamento no mercado, como tal, exige a Autorização de Introdução no Mercado (AIM), concedida pelo INFARMED, I.P., sendo que este sistema pode ser nacional ou através de acordo com os restantes Estados-Membros da UE e com a Comissão Europeia. O sistema europeu engloba quatro procedimentos para concessão de AIM de um determinado medicamento em mais do que um estado membro, os quais são: Procedimento Nacional - Quando se pretende que o medicamento seja aprovado apenas para colocação no mercado de um dos Estados-Membros; Procedimento Centralizado - Baseado em decisões nacionais já existente, sendo que o medicamento é autorizado ao mesmo tempo em todos os Estados-Membros ;  Procedimento de Reconhecimento Mútuo - Utilizado, apenas, quando o medicamento em causa não possui AIM em nenhum Estado-Membro;  Procedimento Descentralizado - Quando a AIM é válida em todos os Estados-Membros da União Europeia; Imagem 1 - INFARMED E depois do...