A IA deve ser tratada como seres humanos?

A inteligência artificial (IA) ainda não atingiu o nível humano. Mas com a tecnologia diminuindo a lacuna cada vez mais a cada ano, muitos problemas éticos têm surgido.

Uma questão importante é: até que ponto a inteligência artificial será semelhante aos seres humanos? Eles pensarão por si próprios ou terão desejos e emoções? Eles deveriam ter direitos legais como os humanos? Eles devem ser forçados a trabalhar ou ser responsabilizados se algo der errado?

Vamos nos aprofundar nessas questões e muito mais neste artigo.

Ética da IA: Por que eles são importantes para se pensar

IA e ética da máquina são dois campos relacionados que estão ganhando força cada vez maior. Eles se relacionam a vários aspectos importantes da tecnologia, incluindo como projetamos, usamos e tratamos as máquinas. A maioria dessas questões está relacionada a questões de segurança em relação aos seres humanos.

No entanto, a ética da IA ​​está começando a superar essas questões fundamentais e entrar em um território mais controverso. Imagine que nas próximas décadas, uma IA superinteligente seja desenvolvida, a qual é potencialmente consciente e expressa desejos, sentimentos ou pode experimentar sofrimento. Já que não temos certeza do que é a consciência humana ou como surge, não é uma proposição tão rebuscada quanto parece originalmente.

Como faríamos para definir e tratar tal IA? E quais são algumas das questões éticas que estamos enfrentando agora com nosso nível atual de IA?

Vamos dar uma olhada em alguns dos dilemas éticos que enfrentamos.

A IA deve receber cidadania?

Em 2017, o governo da Arábia Saudita concedeu cidadania plena a Sophia: um dos robôs com IA mais realistas do mundo. Sophia pode participar de uma conversa e é capaz de imitar 62 expressões faciais humanas. Sophia é o primeiro não humano a ter um passaporte e o primeiro a ter um cartão de crédito.

A decisão de tornar Sophia uma cidadã gerou polêmica. Alguns consideram isso um passo à frente. Eles acham que é importante que as pessoas e os órgãos reguladores comecem a dar mais atenção às questões dessa área. Outros consideram isso uma afronta à dignidade humana, afirmando que a IA não está perto de ser humana ainda – e que a sociedade como um todo não está pronta para cidadãos robôs.

O debate se torna acalorado por causa dos direitos e deveres que são concedidos aos cidadãos. Isso inclui poder votar, pagar impostos, casar e ter filhos. Se Sophia tem permissão para votar, quem está realmente votando? Com o estado atual da IA, prefere ser seu criador que está votando? Outra crítica contundente é que Sophia recebeu mais direitos do que as mulheres e trabalhadores migrantes da Arábia Saudita.

AI e IP: eles devem possuir os direitos sobre o que criam?

As discussões em torno de propriedade intelectual (IP) e questões de privacidade atingiram um ponto mais alto, e agora há outra preocupação. A IA está sendo usada cada vez mais para desenvolver conteúdo, produzir ideias e realizar outras ações sujeitas às leis de PI. Por exemplo, o The Washington Post lançou Heliograf em 2016; um repórter de IA que desenvolveu quase mil artigos em seu primeiro ano. Diversas indústrias também usam IA para vasculhar grandes quantidades de dados e desenvolver novos produtos, como a indústria farmacêutica.

Atualmente, a IA é considerada uma ferramenta; todos os direitos de propriedade intelectual e legais são concedidos ao seu proprietário. Mas a UE considerou anteriormente a criação de uma terceira entidade, uma “personalidade eletrônica”, que se tornaria uma entidade legal aos olhos das leis de PI.

Alguns argumentam que, sem o IP sendo oferecido ao proprietário da máquina, haverá falta de incentivo para construir IA “criativa”. Se o IP fosse para a IA, por que alguém os desenvolveria? E, por isso, acreditam que faltará inovação.

IA e o futuro do trabalho

O papel da IA ​​no trabalho é uma espécie de enigma. Nos últimos anos, vimos o uso controverso da IA ​​na contratação e dispensa de algoritmos em que a IA foi involuntariamente tendenciosa para certos dados demográficos . A IA também está gradualmente substituindo níveis cada vez mais altos de trabalho humano – primeiro o trabalho manual e agora o trabalho mental de ordem superior.

O que deve ser feito sobre isso? E o que acontece se alguma forma de IA consciente for desenvolvida? Deve ser forçado a funcionar? Compensado por seu trabalho? Direitos no local de trabalho concedidos? E assim por diante.

Em um episódio de Black Mirror (um programa famoso por mexer com nossas cabeças ), uma garota chamada Greta cria um clone digital de sua consciência. O clone é informado de que seu objetivo é cumprir deveres para a vida de Greta. Mas, com a consciência de Greta, o clone se considera Greta. Então, quando o clone se recusa a ser um escravo, seus criadores o torturam até a submissão. Finalmente, o clone vai trabalhar para Greta.

Devemos conceder preventivamente certos direitos à IA no caso de eles se acreditarem humanos ou sofrerem?

Para dar um passo adiante, vamos considerar se a IA deve ser livremente desligada ou descomissionada. Atualmente, quando algo dá errado, podemos simplesmente puxar o plugue e desligar a IA. Mas, se a IA tivesse direitos legais e isso não fosse mais possível, o que seria possível?

O famoso exemplo de IA superinteligente que deu errado é o maximizador de clipes de papel. Esta é uma IA que foi projetada para criar o máximo de clipes de papel possível. Dado que a IA é poderosa o suficiente, é concebível que ela decida converter seres humanos, e então tudo, em clipes de papel.

A IA deve ser responsabilizada?

A IA já é responsável por muitas decisões que afetam vidas humanas. Na verdade, a IA já é usada em muitas áreas que afetam diretamente os direitos humanos, o que é preocupante considerando o quão tendenciosos muitos algoritmos de IA parecem ser.

Por exemplo, a IA é usada por grandes empresas para decidir quem deve ser contratado para um cargo. Também é usado em alguns países para determinar quem deve receber bem-estar. O mais preocupante é que é usado pela polícia e pelos sistemas judiciários para determinar a condenação dos réus. E isso não é tudo.

O que acontece quando a IA comete erros? Quem é responsável – aqueles que o usam? Os criadores Alternativamente, a própria IA deve ser punida (e em caso afirmativo, como isso funcionaria)?

AI e Humanidade

AI nunca será humana. Mas pode ser consciente, sentir sofrimento ou ter desejos e vontades. Se uma IA como essa fosse desenvolvida, seria antiético forçá-la a funcionar, descomissioná-la livremente ou fazer coisas que a causam sofrimento?

Embora a IA ainda esteja em sua infância, ela já está sendo usada para coisas que afetam diretamente as vidas humanas, às vezes drasticamente. É necessário tomar decisões sobre como regular o software que é melhor para as vidas humanas, e as vidas de IA, caso isso aconteça.