Um estudo revelou que, embora o ChatGPT seja altamente eficiente em lógica e matemática, ele é suscetível a preconceitos cognitivos humanos ao tomar decisões subjetivas. Em testes de erros de julgamento conhecidos, o IA apresentou tendências como excesso de confiança e aversão ao risco, além da conhecida falácia do apostador, mas evitou outros erros comuns como a negligência da taxa base.
Versões mais recentes da IA mostraram maior precisão analítica, mas também intensificaram os vieses em decisões baseadas em julgamento. Esses achados reforçam preocupações sobre usar IA em decisões críticas, pois ela pode automatizar erros humanos em vez de eliminá-los.
Principais Descobertas
- IA com viés humano: O ChatGPT apresentou padrões de erro humano em quase metade dos cenários avaliados.
- Diferença entre julgamento e lógica: A IA se destaca em tarefas objetivas, mas enfrenta dificuldades em julgamentos subjetivos.
- Supervisão é crucial: Especialistas recomendam monitoramento rigoroso da IA, da mesma forma como ocorre com um ser humano.
A IA Está Livre de Erros Humanos?
Pesquisadores examinaram como o ChatGPT, um dos modelos de IA mais avançados, enfrenta as mesmas armadilhas cognitivas que os humanos. Ele demonstrou viés em áreas como excesso de confiança e preferência por informações que reforçam ideias já existentes. Contudo, sua “humanidade” varia. Por exemplo, não sofre com falácias como o custo afundado.
O estudo, publicado no Manufacturing & Service Operations Management, destacou que o ChatGPT reflete processos humanos, utilizando atalhos mentais similares, mas com resultados inesperados em alguns contextos.
Leia mais sobre como a IA pode impactar as decisões em diferentes cenários.
A Dualidade da IA: Inteligente e Falha
O estudo submeteu o ChatGPT a 18 testes de viés cognitivo. Os resultados foram claros:
- Prisão em armadilhas humanas: A IA demonstrou vieses como aversão à ambiguidade e falácia da conjunção em quase metade dos testes.
- Tarefas objetivas vs. subjetivas: Embora seja excelente em cálculos e probabilidade, falha em decisões que exigem intuição.
- Vieses persistem: Versões mais recentes, como o GPT-4, são mais precisas em análises matemáticas, mas mostram vieses mais acentuados em tarefas de julgamento.
Esses pontos reforçam o papel cauteloso que a IA deve desempenhar em decisões estratégicas.
Veja como a IA transforma setores e impacta a tomada de decisões.
O Que Isso Significa para Empresas e Governos?
Em áreas como contratações ou concessão de crédito, a IA já influencia decisões cruciais. No entanto, ao replicar preconceitos humanos, pode solidificar erros ao invés de corrigi-los. Especialistas alertam que o aprendizado a partir de dados humanos transfere automaticamente as mesmas limitações.
- Evitar riscos: A IA tende a optar por escolhas seguras, mesmo quando opções arriscadas poderiam trazer melhores resultados.
- Excesso de confiança: Muitas vezes, a IA assume que suas conclusões são mais precisas do que realmente são.
- Confirmação de ideias: Prefere reforçar premissas pré-existentes em vez de desafiá-las.
- Rejeição de incertezas: Escolhe caminhos com mais clareza e previsibilidade.
Para lidar com essas falhas, a supervisão humana deve ser consolidada como parte do processo de uso da IA. Sem isso, o potencial de amplificar erros é significativo.
Saiba mais sobre como a IA pode transformar processos decisórios na indústria financeira aqui.
Conclusão e Próximos Passos
Os autores do estudo recomendam auditorias regulares nas decisões geradas por IA. Além disso, urge a necessidade de projetar modelos que reduzam preconceitos. O uso crescente de IA exige garantias de que ela melhore as decisões humanas, ao invés de replicar falhas.
“Os avanços do GPT-3.5 para o GPT-4 mostram que estamos caminhando para uma IA mais precisa em aspectos objetivos, mas que ainda exibe lacunas humanas em julgamentos”, afirmou Tracy Jenkin, uma das autoras.
Empresas devem avaliar frequentemente os modelos usados, garantindo alinhamento com suas demandas. Ajustes contínuos são fundamentais para evitar surpresas desagradáveis.