Quando o seguro de vida oferece IA, você deve fazer limonada?

Uma tendência crescente diz respeito às seguradoras que utilizam inteligência artificial em suas operações. Anúncios sobre esses métodos geralmente mencionam como os clientes podem se inscrever em apólices com mais rapidez, registrar reivindicações com mais eficiência e obter assistência 24 horas por dia, 7 dias por semana, tudo graças à IA.

No entanto, um tópico recente no Twitter da Lemonade – uma marca de seguros que usa IA – lança luz sobre os possíveis problemas dessa prática. As pessoas viram e decidiram que a abordagem Lemonade AI destaca como a tecnologia pode prejudicar e ajudar, dependendo de sua aplicação.

A transparência do Twitter aumenta o alarme

Muitas empresas não divulgam detalhes sobre como usam a IA. A ideia é que manter a IA envolta em mistério dá a impressão de uma oferta futurística enquanto protege a tecnologia proprietária da empresa.

Quando a Lemonade usou o Twitter para dar às pessoas uma visão de como sua IA funciona, as comunicações começaram explicando como ela usa as informações. Por exemplo, um tweet do Lemonade confirmou que coleta aproximadamente 100 vezes mais dados do que as seguradoras tradicionais.

O tópico continuou explicando como o chatbot de IA da empresa faz 13 perguntas aos clientes. Ao fazer isso, ele reúne mais de 1.600 pontos de dados. Isso é comparado com as 20-40 outras seguradoras recebem, continuou o tweet. A empresa usa essas informações para avaliar o risco associado a um cliente, o que ajuda a Lemonade a reduzir seus custos operacionais e índice de perdas.

O quarto tweet da sequência de sete mensagens entrou em um território ainda mais espantoso, sugerindo que a análise do Lemonade AI detecta pistas não-verbais associadas a declarações fraudulentas. O processo da empresa envolve os clientes usando seus telefones para gravar vídeos explicando o que aconteceu.

Os usuários do Twitter questionaram a ética dessa abordagem, apontando os problemas com computadores irresponsáveis ​​que tomam decisões sobre reivindicações que alteram vidas, como aquelas para casas incendiadas. Alguém chamou a prática de "uma versão ainda mais abertamente pseudocientífica de um teste de detector de mentiras tradicional".

AI também comete erros

A detecção de fraude vai além dos métodos de IA de seguros, encontrando sinais e padrões suspeitos . Por exemplo, muitos bancos o usam para sinalizar cobranças estranhas. No entanto, a tecnologia pode interpretar mal as situações – e realmente o faz. Mesmo os programadores mais habilidosos não conseguem realizar um trabalho perfeito.

A maioria das pessoas ocasionalmente enfrenta a situação embaraçosa de tentar comprar um item e ouvir o caixa dizer a eles que a transação falhou, mesmo que eles tenham muito dinheiro em suas contas. Corrigir a situação geralmente é tão simples quanto o titular do cartão entrar em contato com o emissor para explicar a situação e aprovar a cobrança.

No entanto, a situação provavelmente se torna mais grave quando se trata de uma reivindicação de propriedade essencial de alguém. E se a IA errar, categorizando a catástrofe legítima de um segurado como fraudulenta? Alguém que paga fielmente os custos do seguro, esperando que a cobertura traga paz de espírito após situações desastrosas, pode acabar sem proteção, afinal. Um erro causado por humanos durante a programação pode resultar em um resultado errado para um cliente de seguradora de IA.

O Lemonade permite que os clientes cancelem a qualquer momento e recebam reembolsos por qualquer período de pagamento restante em uma apólice. Assim que as pessoas leram seu tópico ofensivo no Twitter, muitos indicaram publicamente que gostariam de trocar de provedor. É muito cedo para dizer quantos podem seguir adiante.

Lucrando com as despesas dos clientes?

Outra parte do tweet da Lemonade mencionou como a empresa teve uma perda de lucro de 368% no primeiro trimestre de 2017. No entanto, no primeiro trimestre de 2021, era de apenas 71%. A seguradora não é a única a aumentar seu investimento em IA para ajudar nos lucros.

Os passos dados pelos líderes da empresa na implementação da IA ​​impactam os resultados. Um estudo da BDO mostrou uma média de crescimento de receita de 16% ao investir mais em TI durante a implementação de IA. No entanto, o aumento médio foi de apenas 5%, sem destinar mais recursos à TI.

Não importa as etapas específicas que um líder de empresa dá ao usar inteligência artificial, o fiasco da Lemonade gerou preocupações compreensíveis no público. Uma das principais desvantagens da IA ​​é que os algoritmos muitas vezes não conseguem explicar os fatores que os levaram a concluir algo.

Mesmo os profissionais de tecnologia que os constroem não podem confirmar os vários aspectos que fazem com que uma ferramenta de IA tome uma certa decisão sobre outra. Essa é uma realidade preocupante para produtos de IA de seguros e todos os outros setores que usam inteligência artificial para tomar decisões críticas. Alguns analistas de IA, em HDSR , defendem compreensivelmente contra o uso desnecessário de modelos de caixa preta.

O site da Lemonade menciona como a IA toma uma porcentagem significativa de suas decisões de sinistros em segundos. Essa é uma boa notícia se o resultado for favorável ao cliente. No entanto, você pode imaginar a pressão extra colocada sobre um segurado já estressado se a IA levar menos de um minuto para negar um sinistro válido. A Lemonade e outras seguradoras movidas a IA podem não se importar se esse sistema os ajudar a lucrar, mas os clientes farão se a tecnologia da empresa der julgamentos injustos.

Limonada Backpedals

Os representantes da Lemonade rapidamente apagaram sua polêmica sequência de tweets, trocando-a por um pedido de desculpas. A mensagem dizia que o Lemonade AI nunca nega automaticamente as alegações e não as avalia em características como gênero ou aparência de uma pessoa.

Os usuários rapidamente apontaram que o tweet original da empresa mencionava o uso de IA para avaliar pistas não-verbais. A situação ficou ainda mais duvidosa quando um post do blog Lemonade afirmou que a empresa não usa IA para rejeitar alegações com base em características físicas ou pessoais.

A postagem discutiu como a Lemonade usa o reconhecimento facial para sinalizar casos em que a mesma pessoa faz reivindicações sob múltiplas identidades. No entanto, o tweet inicial mencionou pistas não-verbais, que parecem diferentes de estudar o rosto de uma pessoa para autenticar quem ela é.

Dizer algo como "Lemonade AI usa reconhecimento facial para verificação de identidade durante o processo de reivindicações" impediria muitas pessoas de chegar a conclusões assustadoras. O blog também trouxe à tona como a pesquisa comportamental sugere que os indivíduos mentem com menos frequência quando se observam falando – como por meio da câmera de selfies de um telefone. Ele afirma que a abordagem permite pagar "reivindicações legítimas com mais rapidez, mantendo os custos baixos". Porém, outras seguradoras provavelmente usam a inteligência artificial de maneira diferente.

Uma preocupação potencial de qualquer ferramenta de seguro de IA é que as pessoas que a usam podem apresentar características sob estresse que refletem as de indivíduos mentirosos. O segurado pode gaguejar, falar rapidamente, repetir-se ou olhar ao redor enquanto cria um vídeo de reivindicações. Eles podem mostrar esses sinais devido a grande angústia – não necessariamente desonestidade. O setor de recursos humanos também usa IA durante a realização de entrevistas. Um risco associado é que qualquer pessoa sob pressão geralmente se comporte de maneira diferente de si mesma.

Uso de IA e potencial de violação de dados

O desempenho do algoritmo de IA normalmente melhora à medida que uma ferramenta obtém acesso a mais informações. Os tweets originais do Lemonade reivindicaram um processo de coleta de mais de 1.600 pontos de dados por cliente. Essa quantidade enorme levanta preocupações.

Primeiro, você pode se perguntar o que o algoritmo sabe e se tirou conclusões incorretas. Outra preocupação é se a Lemonade e outras seguradoras de IA protegem adequadamente os dados.

Relacionado: Os melhores serviços de proteção e monitoramento contra roubo de identidade

Os cibercriminosos visam causar o pior dano possível ao atacar as vítimas. Isso geralmente significa tentar se infiltrar em redes e ferramentas com a maioria dos dados disponíveis. Os perpetradores online também sabem como a IA requer muitas informações para funcionar bem. Da mesma forma, eles gostam de roubar dados para vender mais tarde na dark web.

Em um incidente de fevereiro de 2020, uma empresa de reconhecimento facial chamada Clearview AI sofreu uma violação de dados. O CPO relata que partes não autorizadas acessaram sua lista completa de clientes e informações sobre as atividades dessas entidades. A empresa tinha agências federais e policiais estaduais, incluindo o FBI e o Departamento de Segurança Interna, entre seus clientes.

As violações de dados prejudicam os clientes , corroendo sua confiança e os colocando em risco de roubo de identidade. Como os incidentes de dados roubados ou mal tratados acontecem com tanta frequência, muitas pessoas podem hesitar em permitir que uma ferramenta de seguro de IA colete informações sobre eles em segundo plano. Isso é especialmente verdadeiro se uma empresa deixar de especificar suas políticas de proteção de dados e segurança cibernética.

Conveniência combinada com preocupação

A IA usada no setor de seguros tem vários aspectos úteis. Muitas pessoas adoram digitar consultas em chatbots e obter respostas quase instantâneas, em vez de gastar um tempo precioso no telefone para falar com um agente.

Se uma ferramenta de reclamações de seguros de IA tirar as conclusões corretas e os representantes da empresa mantiverem os dados protegidos, existem benefícios óbvios. No entanto, esta visão geral lembra as pessoas de que a IA não é uma solução infalível e as empresas podem usá-la indevidamente para aumentar os lucros. À medida que mais seguradoras exploram IA, analistas de tecnologia e consumidores devem manter essas entidades honestas e éticas, trazendo à tona suas hesitações válidas. Isso ajudará a garantir que os dados dos usuários estejam protegidos contra o crime cibernético.