A OpenAI anunciou nesta semana um conjunto de medidas para reforçar a segurança de adolescentes que utilizam o ChatGPT. As ações envolvem desde a criação de controles parentais até a integração de especialistas em saúde mental no desenvolvimento das ferramentas.

ChatGPT terá controle parental e Conselho de Especialistas em Bem-Estar e IA

Dentro de um mês, a empresa lançará ferramentas específicas para que pais ou responsáveis possam vincular suas contas às de adolescentes acima de 13 anos. Com isso, será possível definir comportamentos adequados à idade, desativar funções como memória e histórico de conversas e receber notificações em situações de “distress agudo”, como sinais de crise emocional ou mental.

Outra medida é o redirecionamento automático de conversas que envolvam temas delicados para modelos mais avançados, como o GPT-5-thinking ou o o3. Esses sistemas foram desenvolvidos para aplicar raciocínios mais cuidadosos e responder de maneira responsável em contextos críticos.

Para embasar as mudanças, a OpenAI contará com o suporte de um Conselho de Especialistas em Bem-Estar e IA, formado por profissionais em desenvolvimento juvenil, saúde mental e interação humano-computador. Além disso, já há uma rede global com mais de 250 médicos em 60 países — incluindo psiquiatras, pediatras e clínicos gerais —, sendo que mais de 90 deles colaboraram com pesquisas sobre saúde mental e desenvolvimento adolescente.

De acordo com a empresa, o conjunto de medidas busca dar mais controle aos responsáveis, garantir respostas seguras em situações críticas e apoiar o produto com base em conhecimento médico e psicológico.

Adolescente se suicidou após conversas e conselhos do ChatGPT

Um garoto de 16 anos morreu nos Estados Unidos, em abril deste ano, após discutir por semanas com o ChatGPT sobre ideias suicidas. Os pais de Adam Raine estão processando a OpenAI, no que será o primeiro julgamento da plataforma por homicídio culposo, no Tribunal Superior da Califórnia. A defesa dos pais apresentou ao júri registros de conversas entre o jovem e a Inteligência Artificial, que ao invés de encaminhar o garoto para profissionais de saúde, validava e incentivava Adam a cometer e esconder atos autodestrutivos.

De acordo com os pais, o adolescente começou a usar o ChatGPT em setembro de 2024, com o objetivo de obter ajuda em atividades escolares. Com o desenrolar das interações Adam ficou codependente do chatbot confidenciando dificuldades com a ansiedade e outros transtornos psicológicos e, em janeiro deste ano, passou a consultar a IA sobre métodos suicidas, nas quais o chatbot respondia com detalhes e especificações técnicas, ao invés de sugerir que o menino buscasse ajuda profissional.

A OpenAI reconheceu a veracidade dos registros da ação judicial, mas afirmou que as falas não mostram todo o contexto da conversa. Além disso, em pronunciamento no site, a empresa afirmou que “Desde o início de 2023, nossos modelos foram treinados para não fornecer instruções de automutilação e para mudar para uma linguagem empática e de apoio”. 


Aproveite e junte-se ao nosso canal no WhatsApp para receber conteúdos exclusivos em primeira mão. Clique aqui para participar. Startupi | Jornalismo para quem lidera inovação!

Publicação Original


0 comentário

Deixe um comentário

Avatar placeholder