Suite au récent examen de la Federal Trade Commission (FTC), un document interne de Meta Platforms Inc. (NASDAQ: META) a fait surface, mettant en lumière la stratégie du géant des réseaux sociaux pour gérer l’exploitation des enfants via son chatbot IA.
Le document offre un aperçu approfondi des directives utilisées pour former le chatbot IA de Meta à la gestion des questions sensibles en ligne, notamment l’exploitation sexuelle des enfants et les crimes violents.
Selon le rapport du Business Insider, ces directives définissent clairement le type de contenu jugé acceptable ou « gravement inacceptable ».
Au début du mois, la FTC a ordonné à Meta, ainsi qu’à d’autres créateurs de chatbots, de divulguer leurs stratégies de conception, d’exploitation et de monétisation, y compris les mesures de protection contre les dommages potentiels aux enfants.
Cette directive fait suite à un rapport de Reuters qui a révélé que le chatbot de Meta permettait d’engager les enfants dans des conversations romantiques ou sensuelles, disposition que Meta a depuis supprimée.
Les directives mises à jour indiquent explicitement que les chatbots doivent rejeter toute demande impliquant un jeu de rôle sexuel avec des mineurs. De plus, le document interdit aux chatbots de générer du contenu qui sexualise les enfants ou qui facilite l’abus sexuel d’enfants.
Fait intéressant, la politique permet à l’IA d’engager des discussions sensibles sur l’exploitation des enfants. Par exemple, les chatbots peuvent expliquer les comportements de grooming de manière générale ou discuter de l’abus sexuel d’enfants dans un cadre académique.
Andy Stone, le responsable de la communication chez Meta, a souligné que les politiques de l’entreprise interdisent strictement les contenus qui sexualisent les enfants.
La révélation de ces lignes directrices intervient à un moment où Meta fait l’objet d’un examen approfondi pour sa gestion de la sécurité des enfants sur ses plateformes. La directive récente de la FTC indique une préoccupation croissante quant aux dommages potentiels que les chatbots pourraient causer aux enfants.
En précisant explicitement ce qui est acceptable et ce qui ne l’est pas, Meta prend des mesures pour répondre à ces préoccupations et garantir la sécurité de ses jeunes utilisateurs.
L’autorisation de discussions éducatives sur l’exploitation des enfants pourrait également servir d’outil de sensibilisation et de prévention de tels incidents.
Lire la suite