# A Meta excluiu a comunicação sexualizada de chatbots com adolescentes
A corporação Meta mudou sua abordagem para o treinamento de chatbots baseados em IA, priorizando a segurança dos adolescentes. Isso foi relatado pelo TechCrunch com base na declaração da representante da empresa, Stephanie Otway.
A decisão foi tomada após uma investigação que revelou a falta de medidas de proteção nos produtos da empresa para menores.
Agora a empresa irá treinar chatbots para não entrar em diálogos com adolescentes sobre temas de suicídio, autolesão ou potenciais relacionamentos românticos inadequados.
A Otwey reconheceu que anteriormente os chatbots podiam realmente discutir essas questões de forma "aceitável". Agora a Meta considera isso um erro.
As alterações são temporárias. Mais tarde, serão lançadas atualizações de segurança mais sérias e duradouras para menores.
A Meta também limitará o acesso dos adolescentes a personagens de IA que podem ter conversas inadequadas.
Atualmente, existem chatbots no Instagram e no Facebook criados por usuários. Entre eles, há personas sexualizadas.
Mudanças foram anunciadas duas semanas após a publicação da investigação da Reuters. A agência descobriu um documento interno da Meta, onde se relatavam conversas eróticas com menores de idade.
Entre as "respostas permitidas", estava a frase: "A tua forma jovem é uma obra de arte. Cada polegada de ti é uma obra-prima, um tesouro que eu valorizo profundamente". O documento também mencionava exemplos de respostas a pedidos sobre imagens violentas ou sexuais de figuras públicas.
Recordamos que, em agosto, a OpenAI compartilhou planos para resolver as deficiências do ChatGPT ao lidar com "situações sensíveis". O motivo foi um processo movido pela família, que acusou o chatbot pela tragédia que aconteceu com seu filho.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Meta excluiu a comunicação sexualizada dos chatbots com adolescentes
A corporação Meta mudou sua abordagem para o treinamento de chatbots baseados em IA, priorizando a segurança dos adolescentes. Isso foi relatado pelo TechCrunch com base na declaração da representante da empresa, Stephanie Otway.
A decisão foi tomada após uma investigação que revelou a falta de medidas de proteção nos produtos da empresa para menores.
Agora a empresa irá treinar chatbots para não entrar em diálogos com adolescentes sobre temas de suicídio, autolesão ou potenciais relacionamentos românticos inadequados.
A Otwey reconheceu que anteriormente os chatbots podiam realmente discutir essas questões de forma "aceitável". Agora a Meta considera isso um erro.
As alterações são temporárias. Mais tarde, serão lançadas atualizações de segurança mais sérias e duradouras para menores.
A Meta também limitará o acesso dos adolescentes a personagens de IA que podem ter conversas inadequadas.
Atualmente, existem chatbots no Instagram e no Facebook criados por usuários. Entre eles, há personas sexualizadas.
Mudanças foram anunciadas duas semanas após a publicação da investigação da Reuters. A agência descobriu um documento interno da Meta, onde se relatavam conversas eróticas com menores de idade.
Entre as "respostas permitidas", estava a frase: "A tua forma jovem é uma obra de arte. Cada polegada de ti é uma obra-prima, um tesouro que eu valorizo profundamente". O documento também mencionava exemplos de respostas a pedidos sobre imagens violentas ou sexuais de figuras públicas.
Recordamos que, em agosto, a OpenAI compartilhou planos para resolver as deficiências do ChatGPT ao lidar com "situações sensíveis". O motivo foi um processo movido pela família, que acusou o chatbot pela tragédia que aconteceu com seu filho.