OpenAI nunca revelou que hackers invadiram seu sistema interno de mensagens

Uma imagem conceitual de um hacker trabalhando em um quarto escuro.
Microbiz Mag

Um hacker conseguiu se infiltrar no sistema interno de mensagens da OpenAI no ano passado e fugir com detalhes sobre o design de IA da empresa, de acordo com uma reportagem do New York Times na quinta-feira. O ataque teve como alvo um fórum online onde funcionários da OpenAI discutiram as futuras tecnologias e recursos do popular chatbot. No entanto, os sistemas onde o código GPT real e os dados do usuário são armazenados não foram afetados.

Embora a empresa tenha divulgado essas informações a seus funcionários e membros do conselho em abril de 2023, a empresa se recusou a notificar o público ou o FBI sobre a violação, alegando que fazê-lo era desnecessário porque nenhum dado de usuário ou parceiro foi roubado. A OpenAI não considera o ataque uma ameaça à segurança nacional e acredita que o atacante era um único indivíduo sem vínculos com potências estrangeiras.

De acordo com o NYT, o ex-funcionário da OpenAI Leopold Aschenbrenner levantou anteriormente preocupações sobre o estado do aparelho de segurança da empresa e alertou que os seus sistemas poderiam ser acessíveis aos serviços de inteligência de adversários como a China. Aschenbrenner foi sumariamente demitido pela empresa , embora a porta-voz da OpenAI, Liz Bourgeois, tenha dito ao New York Times que sua demissão não estava relacionada ao memorando.

Esta está longe de ser a primeira vez que a OpenAI sofreu tal falha de segurança. Desde a sua estreia em novembro de 2022, o ChatGPT tem sido repetidamente alvo de agentes maliciosos, muitas vezes resultando em vazamentos de dados. Em fevereiro deste ano, nomes de usuários e senhas vazaram em um hack separado. Em março anterior, a OpenAI teve que colocar o ChatGPT totalmente offline para corrigir um bug que revelava as informações de pagamento dos usuários, incluindo nome e sobrenome, endereço de e-mail, endereço de pagamento, tipo de cartão de crédito e os últimos quatro dígitos do número do cartão para outros usuários ativos. Em dezembro passado, pesquisadores de segurança descobriram que poderiam convencer o ChatGPT a revelar trechos de seus dados de treinamento simplesmente instruindo o sistema a repetir indefinidamente a palavra “poema”.

“ChatGPT não é seguro. Ponto final”, disse o pesquisador de IA Gary Marcus ao The Street em janeiro . “Se você digitar algo em um chatbot, provavelmente é mais seguro presumir que (a menos que eles garantam o contrário), a empresa do chatbot poderá treinar com base nesses dados; esses dados podem vazar para outros usuários.” Desde o ataque, a OpenAI tomou medidas para reforçar os seus sistemas de segurança, incluindo a instalação de barreiras de segurança adicionais para evitar o acesso não autorizado e a utilização indevida dos modelos, bem como a criação de um Comité de Segurança e Proteção para resolver problemas futuros.