A OpenAI quer contratar alguém para lidar com os riscos imprevisíveis do ChatGPT.
A OpenAI está investindo pesado em uma função criada para impedir que os riscos da IA se agravem. A empresa anunciou uma nova vaga sênior chamada Chefe de Preparação, um cargo focado em identificar e reduzir os perigos mais graves que podem surgir de chatbots avançados de IA. Junto com a responsabilidade, vem um pacote de remuneração impressionante de US$ 555.000, além de participação acionária.
Em uma publicação anunciando a vaga, Sam Altman a descreveu como "um papel crucial em um momento importante", observando que, embora os modelos de IA sejam agora capazes de "muitas coisas incríveis", eles também estão "começando a apresentar alguns desafios reais".
O que o Chefe de Preparação realmente fará
A pessoa que ocupar essa posição se concentrará em riscos extremos, porém realistas, da IA, incluindo uso indevido, ameaças à segurança cibernética, preocupações biológicas e danos sociais mais amplos. Sam Altman afirmou que a OpenAI agora precisa de uma “compreensão mais matizada” de como as crescentes capacidades podem ser usadas indevidamente sem bloquear os benefícios.
Ele também não suavizou a realidade do trabalho. "Este será um trabalho estressante", escreveu Altman, acrescentando que quem o assumir estará "mergulhando de cabeça na água praticamente de imediato".
A contratação ocorre em um momento delicado para a OpenAI , que tem enfrentado crescente escrutínio regulatório sobre a segurança da IA no último ano . Essa pressão se intensificou em meio a alegações que ligam interações com o ChatGPT a diversos casos de suicídio, levantando preocupações mais amplas sobre o impacto da IA na saúde mental .
Em um dos casos, os pais de um jovem de 16 anos processaram a OpenAI após alegarem que o chatbot incentivou o filho a planejar o próprio suicídio, o que levou a empresa a implementar novas medidas de segurança para usuários menores de 18 anos .
Outra ação judicial alega que o ChatGPT alimentou delírios paranoicos em um caso separado que terminou em assassinato e suicídio, levando a OpenAI a afirmar que está trabalhando em maneiras melhores de detectar sofrimento, reduzir a intensidade das conversas e direcionar os usuários para suporte no mundo real.
A iniciativa da OpenAI em prol da segurança surge num momento em que milhões de pessoas relatam dependência emocional do ChatGPT e os órgãos reguladores estão investigando os riscos para as crianças , o que reforça a importância da preparação, que vai além da simples engenharia.
A publicação OpenAI quer contratar alguém para lidar com os riscos imprevisíveis do ChatGPT apareceu primeiro em Digital Trends .

