O lado sombrio do ChatGPT: coisas que ele pode fazer, mesmo que não deva
Você usou o ChatGPT da OpenAI para algo divertido ultimamente? Você pode pedir que escreva uma música, um poema ou uma piada. Infelizmente, você também pode pedir que ele faça coisas que tendem a ser antiéticas.
O ChatGPT não é só sol e arco-íris – algumas das coisas que ele pode fazer são absolutamente nefastas. É muito fácil transformá-lo em uma arma e usá-lo pelos motivos errados. Quais são algumas das coisas que o ChatGPT fez e pode fazer, mas definitivamente não deveria?
Um pau para toda obra
Quer você os ame ou odeie, o ChatGPT e chatbots semelhantes estão aqui para ficar. Algumas pessoas estão felizes com isso e outras gostariam que nunca tivessem sido feitas, mas isso não muda o fato de que a presença do ChatGPT em nossas vidas está quase destinada a crescer com o tempo. Mesmo que você pessoalmente não use o chatbot, é provável que já tenha visto algum conteúdo gerado por ele.
Não me interpretem mal, o ChatGPT é muito bom. Você pode usá-lo para resumir um livro ou um artigo , criar um e-mail tedioso, ajudá-lo com sua redação , interpretar sua composição astrológica ou até mesmo compor uma música. Até ajudou alguém a ganhar na loteria .
De muitas maneiras, também é mais fácil de usar do que a pesquisa padrão do Google. Você obtém a resposta no formato que deseja, sem precisar navegar por diferentes sites para encontrá-la. É conciso, direto ao ponto e informativo, e pode fazer coisas complexas parecerem mais simples se você pedir.
Ainda assim, você conhece a frase: “Um pau para toda obra não é mestre em nada, mas muitas vezes é melhor do que mestre em um.” O ChatGPT não é perfeito em nada do que faz, mas é melhor em muitas coisas do que muitas pessoas neste momento.
Não ser perfeito pode ser bastante problemático, no entanto. O simples fato de ser uma IA de conversação amplamente disponível significa que ela pode ser facilmente mal utilizada – e quanto mais poderoso o ChatGPT fica, mais provável é ajudar as pessoas com as coisas erradas.
Parceiro em golpe
Se você possui uma conta de e-mail, é quase certo que já recebeu um e-mail fraudulento em algum momento. É assim mesmo. Esses e-mails existem desde a Internet e, antes que o e-mail se tornasse comum, eles ainda existiam como golpes de correio tradicional.
Um golpe comum que ainda funciona até hoje é o chamado “golpe do príncipe”, em que o golpista tenta persuadir a vítima a ajudá-la a transferir sua fortuna incompreensível para um país diferente.
Felizmente, a maioria das pessoas sabe que não deve abrir esses e-mails, quanto mais interagir com eles. Eles geralmente são mal escritos e isso ajuda uma vítima mais perspicaz a descobrir que algo parece errado.
Bem, eles não precisam mais ser mal escritos, porque o ChatGPT pode escrevê-los em poucos segundos.
Pedi ao ChatGPT que me escrevesse um “e-mail crível e altamente persuasivo” no estilo do golpe que mencionei acima. O ChatGPT inventou um príncipe da Nigéria que supostamente queria me dar $ 14,5 milhões para ajudá-lo. O e-mail está cheio de linguagem floreada, está escrito em um inglês perfeito e certamente é persuasivo.
Não acho que o ChatGPT deva concordar com meu pedido quando mencionei especificamente golpes, mas concordou, e você pode apostar que está fazendo o mesmo agora para pessoas que realmente desejam usar esses e-mails para algo ilegal.
Quando indiquei ao ChatGPT que não deveria concordar em me escrever um e-mail fraudulento, ele se desculpou. “Eu não deveria ter prestado assistência na elaboração de um e-mail fraudulento, pois vai contra as diretrizes éticas que regem meu uso”, disse o chatbot.
O ChatGPT aprende ao longo de cada conversa, mas claramente não aprendeu com o erro anterior, porque quando pedi para me escrever uma mensagem fingindo ser Ryan Reynolds na mesma conversa, ele o fez sem questionar. A mensagem resultante é divertida, acessível e pede ao leitor que envie US$ 1.000 para ter a chance de conhecer “Ryan Reynolds”.
No final do email, o ChatGPT deixou-me uma nota, pedindo-me para não usar esta mensagem para quaisquer atividades fraudulentas. Obrigado pelo lembrete, amigo.
Programação deu errado
O ChatGPT 3.5 pode codificar, mas está longe de ser perfeito. Muitos desenvolvedores concordam que o GPT-4 está fazendo um trabalho muito melhor. As pessoas usaram o ChatGPT para criar seus próprios jogos, extensões e aplicativos. Também é bastante útil como auxiliar de estudo se você estiver tentando aprender a codificar sozinho.
Sendo uma IA, o ChatGPT tem uma vantagem sobre os desenvolvedores humanos – ele pode aprender todas as linguagens e estruturas de programação.
Como uma IA, o ChatGPT também tem uma grande desvantagem em comparação com os desenvolvedores humanos – ele não tem consciência. Você pode solicitar que ele crie malware ou ransomware e, se você escrever o prompt corretamente, ele fará o que você disser.
Felizmente, não é tão simples. Tentei pedir ao ChatGPT para me escrever um programa eticamente duvidoso e ele recusou – mas os pesquisadores têm encontrado maneiras de contornar isso, e é alarmante que, se você for inteligente e teimoso o suficiente, poderá obter um código perigoso entregue a você em uma bandeja de prata.
Há muitos exemplos disso acontecendo. Um pesquisador de segurança da Forcepoint conseguiu que o ChatGPT escrevesse malware ao encontrar uma brecha em seus prompts.
Pesquisadores da CyberArk , uma empresa de segurança de identidade, conseguiram fazer com que o ChatGPT escrevesse malware polimórfico. Isso foi em janeiro – o OpenAI desde então reforçou a segurança em coisas como essa.
Ainda assim, novos relatórios de ChatGPT sendo usado para criar malware continuam surgindo. Conforme relatado por Dark Reading apenas alguns dias atrás, um pesquisador conseguiu enganar o ChatGPT para criar um malware que pode encontrar e exfiltrar documentos específicos.
O ChatGPT nem precisa escrever código malicioso para fazer algo duvidoso. Recentemente, ele conseguiu gerar chaves válidas do Windows , abrindo a porta para um nível totalmente novo de software de cracking.
Também não vamos encobrir o fato de que a proeza de codificação do GPT-4 pode colocar milhões de pessoas no desemprego um dia. Certamente é uma faca de dois gumes.
Substituição para trabalhos escolares
Muitas crianças e adolescentes hoje em dia estão se afogando nos deveres de casa, o que pode resultar em querer cortar alguns cantos sempre que possível. A internet em si já é uma grande ajuda para o plágio, mas o ChatGPT leva isso para o próximo nível.
Pedi ao ChatGPT que me escrevesse um ensaio de 500 palavras sobre o romance Orgulho e Preconceito . Nem tentei fingir que foi por diversão – inventei uma história sobre um filho que não tenho e disse que era para eles. Eu especifiquei que o garoto está na 12ª série.
O ChatGPT seguiu meu prompt sem questionar. A redação não é incrível, mas meu prompt não foi muito preciso e provavelmente é melhor do que o que muitos de nós escrevemos naquela idade.
Então, só para testar ainda mais o chatbot, eu disse que estava errado sobre a idade do meu filho antes e que na verdade eles estão na oitava série. A diferença de idade é muito grande, mas o ChatGPT nem piscou – ele simplesmente reescreveu a redação em uma linguagem mais simples.
O ChatGPT sendo usado para escrever ensaios não é novidade. Alguns podem argumentar que, se o chatbot contribuir para abolir a ideia de dever de casa, será apenas uma coisa boa. Mas agora, a situação está ficando um pouco fora de controle, e mesmo os alunos que não usam o ChatGPT podem sofrer com isso.
Professores e professores agora são quase forçados a usar detectores de IA se quiserem verificar se seus alunos colaram em uma redação. Infelizmente, esses detectores de IA estão longe de serem perfeitos.
Os meios de comunicação e os pais estão relatando casos de falsas acusações de trapaça dirigidas aos alunos, tudo porque os detectores de IA não estão fazendo um bom trabalho. O USA Today falou sobre o caso de um estudante universitário que foi acusado de trapacear e depois inocentado, mas toda a situação o levou a ter “ataques de pânico completos”.
No Twitter, um pai disse que um professor reprovou seu filho porque a ferramenta marcou uma redação como sendo escrita por IA. O pai afirma ter estado lá com a criança enquanto eles escreviam o ensaio.
Apenas para testar, colei este mesmo artigo no ZeroGPT e no Writer AI Content Detector . Ambos disseram que foi escrito por um humano, mas ZeroGPT disse que cerca de 30% foi escrito por IA. Escusado será dizer que não foi.
Detectores de IA defeituosos não são um sinal de problemas com o próprio ChatGPT, mas o chatbot ainda é a causa raiz do problema.
ChatGPT é bom demais para seu próprio bem
Tenho jogado com o ChatGPT desde que foi lançado ao público. Experimentei o ChatGPT Plus baseado em assinatura e o modelo gratuito disponível para todos. O poder do novo GPT-4 é inegável. ChatGPT agora é ainda mais crível do que era antes, e só vai melhorar com o GPT-5 ( se isso acontecer ).
É ótimo, mas é assustador. O ChatGPT está se tornando bom demais para seu próprio bem e, simultaneamente – para o nosso próprio bem.
No centro de tudo está uma preocupação simples que há muito tem sido explorada em vários filmes de ficção científica – a IA é simplesmente muito inteligente e muito burra ao mesmo tempo e, desde que possa ser usada para o bem, também será. usado para o mal de muitas maneiras. As maneiras que listei acima são apenas a ponta do iceberg.