A maioria das pessoas desconfia da IA ​​e quer regulamentação, diz nova pesquisa

A maioria dos adultos americanos não confia em ferramentas de inteligência artificial (IA) como o ChatGPT e se preocupa com seu potencial uso indevido, descobriu uma nova pesquisa . Sugere que os frequentes escândalos em torno do malware e da desinformação criados pela IA estão a cobrar o seu preço e que o público pode estar cada vez mais receptivo às ideias de regulamentação da IA.

A pesquisa da MITRE Corporation e da Harris Poll afirma que apenas 39% dos 2.063 adultos norte-americanos entrevistados acreditam que a tecnologia de IA atual é “segura e protegida”, uma queda de 9% em relação a quando as duas empresas realizaram sua última pesquisa em novembro de 2022.

A mão de uma pessoa segurando um smartphone. O smartphone está mostrando o site da IA ​​generativa ChatGPT.

Quando se tratava de preocupações específicas, 82% das pessoas estavam preocupadas com deepfakes e “outros conteúdos de engenharia artificial”, enquanto 80% temiam como esta tecnologia poderia ser usada em ataques de malware. A maioria dos entrevistados estava preocupada com o uso da IA ​​no roubo de identidade, na coleta de dados pessoais, na substituição de humanos no local de trabalho e muito mais.

Na verdade, o inquérito indica que as pessoas estão a tornar-se mais cautelosas quanto ao impacto da IA ​​em vários grupos demográficos. Embora 90% dos boomers estejam preocupados com o impacto dos deepfakes, 72% dos membros da Geração Z também estão preocupados com o mesmo assunto.

Embora os jovens suspeitem menos da IA ​​— e sejam mais propensos a utilizá-la na sua vida quotidiana — as preocupações continuam a ser elevadas em diversas áreas, incluindo se a indústria deve fazer mais para proteger o público e se a IA deve ser regulamentada.

Forte apoio à regulamentação

Um laptop aberto no site ChatGPT.

O declínio do suporte às ferramentas de IA provavelmente foi motivado por meses de histórias negativas nas notícias sobre ferramentas generativas de IA e as controvérsias enfrentadas pelo ChatGPT , Bing Chat e outros produtos. À medida que aumentam as histórias de desinformação, violações de dados e malware, parece que o público está a tornar-se menos receptivo ao futuro iminente da IA.

Quando questionados na pesquisa MITRE-Harris se o governo deveria intervir para regulamentar a IA, 85% dos entrevistados foram a favor da ideia – um aumento de 3% em relação à última vez. Os mesmos 85% concordaram com a afirmação de que “Tornar a IA segura e protegida para uso público precisa ser um esforço nacional da indústria, do governo e da academia”, enquanto 72% sentiram que “O governo federal deveria concentrar mais tempo e financiamento na IA”. pesquisa e desenvolvimento de segurança.

A ansiedade generalizada sobre o uso da IA ​​para melhorar os ataques de malware é interessante. Conversamos recentemente com um grupo de especialistas em segurança cibernética sobre esse mesmo assunto, e o consenso parecia ser que, embora a IA pudesse ser usada em malware, não é uma ferramenta particularmente forte no momento. Alguns especialistas consideraram que a sua capacidade de escrever códigos de malware eficazes era fraca, enquanto outros explicaram que os hackers provavelmente encontrariam explorações melhores em repositórios públicos do que pedindo ajuda à IA.

Ainda assim, o crescente cepticismo em relação a tudo o que diz respeito à IA pode acabar por moldar os esforços da indústria e levar empresas como a OpenAI a investir mais dinheiro na protecção do público contra os produtos que lançam. E com um apoio tão esmagador, não se surpreenda se os governos começarem a promulgar regulamentação sobre a IA mais cedo ou mais tarde.