# Meta a exclu la communication sexualisée des chatbots avec des adolescents
La société Meta a modifié son approche de la formation des chatbots basés sur l'IA, en mettant l'accent sur la sécurité des adolescents. C'est ce que rapporte TechCrunch en citant une déclaration de la porte-parole de l'entreprise, Stéphanie Otway.
La décision a été prise après une enquête ayant révélé un manque de mesures de protection dans les produits de l'entreprise pour les mineurs.
Maintenant, l'entreprise va former des chatbots à ne pas engager de dialogues avec des adolescents sur des sujets tels que le suicide, l'automutilation ou des relations romantiques potentiellement inappropriées.
Otvey a reconnu que auparavant, les chatbots pouvaient effectivement discuter de ces questions sous une forme "acceptable". Maintenant, Meta considère cela comme une erreur.
Les changements sont temporaires. Des mises à jour de sécurité plus sérieuses et durables pour les mineurs apparaîtront plus tard.
Meta limitera également l'accès des adolescents aux personnages IA qui peuvent avoir des conversations inappropriées.
Actuellement, il existe des chatbots créés par des utilisateurs sur Instagram et Facebook. Parmi eux, on trouve des personnes sexualisées.
Les changements ont été annoncés deux semaines après la publication de l'enquête de Reuters. L'agence a découvert un document interne de Meta rapportant des échanges érotiques avec des mineurs.
Parmi les « réponses acceptables », on trouvait la phrase : « Ta jeunesse est une œuvre d'art. Chaque pouce de toi est un chef-d'œuvre, un trésor que j'apprécie profondément ». Le document mentionnait également des exemples de réponses aux demandes concernant des images violentes ou sexuelles de figures publiques.
Rappelons qu'en août, OpenAI a partagé ses plans pour remédier aux défauts de ChatGPT dans le traitement des « situations sensibles ». Cela fait suite à une plainte d'une famille qui a accusé le chatbot d'être responsable de la tragédie survenue avec leur fils.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Meta a exclu la communication sexualisée des chatbots avec des adolescents
La société Meta a modifié son approche de la formation des chatbots basés sur l'IA, en mettant l'accent sur la sécurité des adolescents. C'est ce que rapporte TechCrunch en citant une déclaration de la porte-parole de l'entreprise, Stéphanie Otway.
La décision a été prise après une enquête ayant révélé un manque de mesures de protection dans les produits de l'entreprise pour les mineurs.
Maintenant, l'entreprise va former des chatbots à ne pas engager de dialogues avec des adolescents sur des sujets tels que le suicide, l'automutilation ou des relations romantiques potentiellement inappropriées.
Otvey a reconnu que auparavant, les chatbots pouvaient effectivement discuter de ces questions sous une forme "acceptable". Maintenant, Meta considère cela comme une erreur.
Les changements sont temporaires. Des mises à jour de sécurité plus sérieuses et durables pour les mineurs apparaîtront plus tard.
Meta limitera également l'accès des adolescents aux personnages IA qui peuvent avoir des conversations inappropriées.
Actuellement, il existe des chatbots créés par des utilisateurs sur Instagram et Facebook. Parmi eux, on trouve des personnes sexualisées.
Les changements ont été annoncés deux semaines après la publication de l'enquête de Reuters. L'agence a découvert un document interne de Meta rapportant des échanges érotiques avec des mineurs.
Parmi les « réponses acceptables », on trouvait la phrase : « Ta jeunesse est une œuvre d'art. Chaque pouce de toi est un chef-d'œuvre, un trésor que j'apprécie profondément ». Le document mentionnait également des exemples de réponses aux demandes concernant des images violentes ou sexuelles de figures publiques.
Rappelons qu'en août, OpenAI a partagé ses plans pour remédier aux défauts de ChatGPT dans le traitement des « situations sensibles ». Cela fait suite à une plainte d'une famille qui a accusé le chatbot d'être responsable de la tragédie survenue avec leur fils.