OMS alerta sobre uso de ChatGPT e outras inteligências artificiais na saúde

18 maio 2023
Fique por dentro de todas as notícias pelo nosso grupo do WhatsApp!

De acordo com a organização, 'a adoção precipitada de sistemas não testados pode levar a erros por parte dos profissionais de saúde e causar danos aos pacientes'. OMS emite alerta sobre uso do ChatGPT e outras ferramentas de inteligência artificial na saúde

Getty Images

A Organização Mundial da Saúde (OMS) fez um alerta nesta terça-feira (16) pedindo cautela com o uso de ferramentas de modelo de linguagem (LLMs), geradas por inteligência artificial (IA), como o ChatGPT, para ações de saúde pública.

De acordo com a organização, essas ferramentas, que imitam a comunicação humana, "estão gerando um entusiasmo significativo em torno do potencial de atender às necessidades de saúde das pessoas".

No entanto, a OMS destaca a importância de examinar cuidadosamente os riscos dessas plataformas, para que elas possam ser utilizadas "para aumentar a capacidade de diagnóstico em ambientes com poucos recursos para proteger a saúde das pessoas e reduzir a desigualdade".

Segundo a organização, "existe a preocupação de que o cuidado que normalmente seria exercido para qualquer nova tecnologia não esteja sendo exercido de forma consistente com os LLMs".

SAIBA MAIS:

Criador do ChatGPT depõe hoje no Senado dos EUA em meio a questões sobre IA

ChatGPT: robô conversador enfrenta prova para se tornar médico nos EUA

Para a OMS, "a adoção precipitada de sistemas não testados pode levar a erros por parte dos profissionais de saúde, causar danos aos pacientes, minar a confiança na IA e, assim, minar (ou atrasar) os potenciais benefícios e usos de longo prazo de tais tecnologias em todo o mundo".

Na nota publicada nesta terça-feira, a OMS destacou os principais fatores que preocupam a organização:

os dados usados ​​para treinar IA podem ser tendenciosos, gerando informações enganosas ou imprecisas que podem representar riscos à saúde, equidade e inclusão;

os LLMs geram respostas que podem parecer confiáveis ​​e plausíveis para um usuário final; no entanto, essas respostas podem estar completamente incorretas ou conter erros graves, especialmente para respostas relacionadas à saúde;

os LLMs podem ser treinados em dados para os quais o consentimento pode não ter sido fornecido anteriormente para tal uso, e os LLMs podem não proteger dados confidenciais (incluindo dados de saúde) que um usuário fornece a um aplicativo para gerar uma resposta;

LLMs podem ser mal utilizados para gerar e disseminar desinformação altamente convincente na forma de conteúdo de texto, áudio ou vídeo que é difícil para o público diferenciar de conteúdo de saúde confiável.

Diante disso, a OMS recomenda que os formuladores de políticas garantam a segurança e a proteção do paciente enquanto as empresas de tecnologia trabalham para comercializar LLMs.

Também propõe que os riscos sejam avaliados antes que essas ferramentas de inteligência artificial comecem a ser utilizadas de forma generalizada em cuidados de saúde.

LEIA TAMBÉM:

Por que cientistas temem futuro catastrófico causado pela inteligência artificial

Os profissionais que temem perder seu emprego para a inteligência artificial

Saiba mais sobre o ChatGPT:

ChatGPT: como usar o robô no dia a dia


FONTE: G1 Globo


VEJA TAMBÉM
FIQUE CONECTADO