A IA deve ser tratada como seres humanos?
A inteligência artificial (IA) ainda não atingiu o nível humano. Mas com a tecnologia diminuindo a lacuna cada vez mais a cada ano, muitos problemas éticos têm surgido.
Uma questão importante é: até que ponto a inteligência artificial será semelhante aos seres humanos? Eles pensarão por si próprios ou terão desejos e emoções? Eles deveriam ter direitos legais como os humanos? Eles devem ser forçados a trabalhar ou ser responsabilizados se algo der errado?
Vamos nos aprofundar nessas questões e muito mais neste artigo.
Ética da IA: Por que eles são importantes para se pensar
IA e ética da máquina são dois campos relacionados que estão ganhando força cada vez maior. Eles se relacionam a vários aspectos importantes da tecnologia, incluindo como projetamos, usamos e tratamos as máquinas. A maioria dessas questões está relacionada a questões de segurança em relação aos seres humanos.
No entanto, a ética da IA está começando a superar essas questões fundamentais e entrar em um território mais controverso. Imagine que nas próximas décadas, uma IA superinteligente seja desenvolvida, a qual é potencialmente consciente e expressa desejos, sentimentos ou pode experimentar sofrimento. Já que não temos certeza do que é a consciência humana ou como surge, não é uma proposição tão rebuscada quanto parece originalmente.
Como faríamos para definir e tratar tal IA? E quais são algumas das questões éticas que estamos enfrentando agora com nosso nível atual de IA?
Vamos dar uma olhada em alguns dos dilemas éticos que enfrentamos.
A IA deve receber cidadania?
Em 2017, o governo da Arábia Saudita concedeu cidadania plena a Sophia: um dos robôs com IA mais realistas do mundo. Sophia pode participar de uma conversa e é capaz de imitar 62 expressões faciais humanas. Sophia é o primeiro não humano a ter um passaporte e o primeiro a ter um cartão de crédito.
A decisão de tornar Sophia uma cidadã gerou polêmica. Alguns consideram isso um passo à frente. Eles acham que é importante que as pessoas e os órgãos reguladores comecem a dar mais atenção às questões dessa área. Outros consideram isso uma afronta à dignidade humana, afirmando que a IA não está perto de ser humana ainda – e que a sociedade como um todo não está pronta para cidadãos robôs.
O debate se torna acalorado por causa dos direitos e deveres que são concedidos aos cidadãos. Isso inclui poder votar, pagar impostos, casar e ter filhos. Se Sophia tem permissão para votar, quem está realmente votando? Com o estado atual da IA, prefere ser seu criador que está votando? Outra crítica contundente é que Sophia recebeu mais direitos do que as mulheres e trabalhadores migrantes da Arábia Saudita.
AI e IP: eles devem possuir os direitos sobre o que criam?
As discussões em torno de propriedade intelectual (IP) e questões de privacidade atingiram um ponto mais alto, e agora há outra preocupação. A IA está sendo usada cada vez mais para desenvolver conteúdo, produzir ideias e realizar outras ações sujeitas às leis de PI. Por exemplo, o The Washington Post lançou Heliograf em 2016; um repórter de IA que desenvolveu quase mil artigos em seu primeiro ano. Diversas indústrias também usam IA para vasculhar grandes quantidades de dados e desenvolver novos produtos, como a indústria farmacêutica.
Atualmente, a IA é considerada uma ferramenta; todos os direitos de propriedade intelectual e legais são concedidos ao seu proprietário. Mas a UE considerou anteriormente a criação de uma terceira entidade, uma “personalidade eletrônica”, que se tornaria uma entidade legal aos olhos das leis de PI.
Alguns argumentam que, sem o IP sendo oferecido ao proprietário da máquina, haverá falta de incentivo para construir IA “criativa”. Se o IP fosse para a IA, por que alguém os desenvolveria? E, por isso, acreditam que faltará inovação.
IA e o futuro do trabalho
O papel da IA no trabalho é uma espécie de enigma. Nos últimos anos, vimos o uso controverso da IA na contratação e dispensa de algoritmos em que a IA foi involuntariamente tendenciosa para certos dados demográficos . A IA também está gradualmente substituindo níveis cada vez mais altos de trabalho humano – primeiro o trabalho manual e agora o trabalho mental de ordem superior.
O que deve ser feito sobre isso? E o que acontece se alguma forma de IA consciente for desenvolvida? Deve ser forçado a funcionar? Compensado por seu trabalho? Direitos no local de trabalho concedidos? E assim por diante.
Em um episódio de Black Mirror (um programa famoso por mexer com nossas cabeças ), uma garota chamada Greta cria um clone digital de sua consciência. O clone é informado de que seu objetivo é cumprir deveres para a vida de Greta. Mas, com a consciência de Greta, o clone se considera Greta. Então, quando o clone se recusa a ser um escravo, seus criadores o torturam até a submissão. Finalmente, o clone vai trabalhar para Greta.
Devemos conceder preventivamente certos direitos à IA no caso de eles se acreditarem humanos ou sofrerem?
Para dar um passo adiante, vamos considerar se a IA deve ser livremente desligada ou descomissionada. Atualmente, quando algo dá errado, podemos simplesmente puxar o plugue e desligar a IA. Mas, se a IA tivesse direitos legais e isso não fosse mais possível, o que seria possível?
O famoso exemplo de IA superinteligente que deu errado é o maximizador de clipes de papel. Esta é uma IA que foi projetada para criar o máximo de clipes de papel possível. Dado que a IA é poderosa o suficiente, é concebível que ela decida converter seres humanos, e então tudo, em clipes de papel.
A IA deve ser responsabilizada?
A IA já é responsável por muitas decisões que afetam vidas humanas. Na verdade, a IA já é usada em muitas áreas que afetam diretamente os direitos humanos, o que é preocupante considerando o quão tendenciosos muitos algoritmos de IA parecem ser.
Por exemplo, a IA é usada por grandes empresas para decidir quem deve ser contratado para um cargo. Também é usado em alguns países para determinar quem deve receber bem-estar. O mais preocupante é que é usado pela polícia e pelos sistemas judiciários para determinar a condenação dos réus. E isso não é tudo.
O que acontece quando a IA comete erros? Quem é responsável – aqueles que o usam? Os criadores Alternativamente, a própria IA deve ser punida (e em caso afirmativo, como isso funcionaria)?
AI e Humanidade
AI nunca será humana. Mas pode ser consciente, sentir sofrimento ou ter desejos e vontades. Se uma IA como essa fosse desenvolvida, seria antiético forçá-la a funcionar, descomissioná-la livremente ou fazer coisas que a causam sofrimento?
Embora a IA ainda esteja em sua infância, ela já está sendo usada para coisas que afetam diretamente as vidas humanas, às vezes drasticamente. É necessário tomar decisões sobre como regular o software que é melhor para as vidas humanas, e as vidas de IA, caso isso aconteça.