A OpenAI anunciou mudanças nas
diretrizes de uso do ChatGPT, restringindo a atuação da IA em áreas sensíveis
como saúde e direito. Agora, o modelo só fornece informações gerais, enquanto
redireciona os usuários para profissionais qualificados. A medida busca evitar
diagnósticos incorretos, interpretações imprecisas e possíveis consequências
legais.
Além disso, o ChatGPT não
poderá mais analisar imagens médicas, incluindo exames de radiografia ou
ressonância, nem interpretar laudos com finalidade de diagnóstico ou
tratamento. Recentemente, alguns usuários exploravam essas funções, mas a
empresa reforça que esse tipo de orientação deve ser feito exclusivamente por
especialistas humanos.
Responsabilidade
A decisão surge após
discussões sobre responsabilidade e segurança no uso de inteligência artificial
em áreas críticas. Com as mudanças, a OpenAI garante que o ChatGPT continue
apto a explicar conceitos gerais, auxiliar na compreensão de temas complexos e
revisar textos ou dados, mas não substitui o papel de médicos ou advogados.
A empresa enfatiza que as
restrições não representam retrocesso tecnológico. Pelo contrário, elas
representam avanço no controle ético e regulatório, permitindo que a IA seja
utilizada de forma segura e confiável em contextos de alto risco.
Aplicações
Mesmo com as limitações, os
usuários ainda podem usar o ChatGPT para informações educativas e
esclarecimento de dúvidas gerais, mantendo a ferramenta útil sem comprometer a
segurança e a responsabilidade profissional.


Nenhum comentário:
Postar um comentário