OpenAI nunca revelou que hackers invadiram seu sistema interno de mensagens
Um hacker conseguiu se infiltrar no sistema interno de mensagens da OpenAI no ano passado e fugir com detalhes sobre o design de IA da empresa, de acordo com uma reportagem do New York Times na quinta-feira. O ataque teve como alvo um fórum online onde funcionários da OpenAI discutiram as futuras tecnologias e recursos do popular chatbot. No entanto, os sistemas onde o código GPT real e os dados do usuário são armazenados não foram afetados.
Embora a empresa tenha divulgado essas informações a seus funcionários e membros do conselho em abril de 2023, a empresa se recusou a notificar o público ou o FBI sobre a violação, alegando que fazê-lo era desnecessário porque nenhum dado de usuário ou parceiro foi roubado. A OpenAI não considera o ataque uma ameaça à segurança nacional e acredita que o atacante era um único indivíduo sem vínculos com potências estrangeiras.
De acordo com o NYT, o ex-funcionário da OpenAI Leopold Aschenbrenner levantou anteriormente preocupações sobre o estado do aparelho de segurança da empresa e alertou que os seus sistemas poderiam ser acessíveis aos serviços de inteligência de adversários como a China. Aschenbrenner foi sumariamente demitido pela empresa , embora a porta-voz da OpenAI, Liz Bourgeois, tenha dito ao New York Times que sua demissão não estava relacionada ao memorando.
Esta está longe de ser a primeira vez que a OpenAI sofreu tal falha de segurança. Desde a sua estreia em novembro de 2022, o ChatGPT tem sido repetidamente alvo de agentes maliciosos, muitas vezes resultando em vazamentos de dados. Em fevereiro deste ano, nomes de usuários e senhas vazaram em um hack separado. Em março anterior, a OpenAI teve que colocar o ChatGPT totalmente offline para corrigir um bug que revelava as informações de pagamento dos usuários, incluindo nome e sobrenome, endereço de e-mail, endereço de pagamento, tipo de cartão de crédito e os últimos quatro dígitos do número do cartão para outros usuários ativos. Em dezembro passado, pesquisadores de segurança descobriram que poderiam convencer o ChatGPT a revelar trechos de seus dados de treinamento simplesmente instruindo o sistema a repetir indefinidamente a palavra “poema”.
“ChatGPT não é seguro. Ponto final”, disse o pesquisador de IA Gary Marcus ao The Street em janeiro . “Se você digitar algo em um chatbot, provavelmente é mais seguro presumir que (a menos que eles garantam o contrário), a empresa do chatbot poderá treinar com base nesses dados; esses dados podem vazar para outros usuários.” Desde o ataque, a OpenAI tomou medidas para reforçar os seus sistemas de segurança, incluindo a instalação de barreiras de segurança adicionais para evitar o acesso não autorizado e a utilização indevida dos modelos, bem como a criação de um Comité de Segurança e Proteção para resolver problemas futuros.