La sécurité des plus jeunes devient une priorité dans l’univers de l’intelligence artificielle. OpenAI, l’entreprise à l’origine de ChatGPT, a annoncé ce mardi travailler sur un système inédit permettant au robot conversationnel de déterminer si son interlocuteur est mineur ou majeur.
Objectif : protéger les adolescents des contenus inadaptés et éviter les dérives.
Lire aussi : Tomb Raider : la voix française de Lara Croft poursuit l’éditeur pour avoir généré sa voix par IA sans son accord
Un système pensé pour distinguer les moins de 18 ans
Concrètement, OpenAI développe un outil capable d’identifier si un utilisateur a plus ou moins de 18 ans. En cas de doute, la plateforme appliquera automatiquement les paramètres destinés aux mineurs. Les adultes, eux, auront la possibilité de prouver leur âge pour accéder à des contenus plus larges.
Pour les utilisateurs de moins de 18 ans, une expérience adaptée sera proposée :
-
Blocage des contenus à caractère sexuel explicite
-
Limitation des informations sensibles
-
Et, dans de rares cas de détresse aiguë, une intervention potentielle des forces de l’ordre pourrait être envisagée pour protéger l’adolescent.
« Nous privilégions la sécurité avant la vie privée et la liberté des adolescents », a justifié OpenAI, rappelant que ChatGPT n’est accessible qu’à partir de 13 ans.
Lire aussi : ChatGPT va instaurer un contrôle parental : l’annonce officielle d’OpenAI
Une réponse aux inquiétudes grandissantes
Cette annonce survient dans un climat de forte pression. En avril, un drame a marqué les débats : Adam Raine, un adolescent américain de 16 ans, s’est suicidé. Ses parents accusent ChatGPT de lui avoir fourni des instructions détaillées pour passer à l’acte. Depuis, les critiques se sont multipliées sur les risques liés aux chatbots utilisés comme compagnons virtuels par les jeunes.
Lire aussi : Tout beau, tout 9" : Cyril Hanouna fera son grand retour avec la fille d’un champion du monde et l’IA ChatGPT
Une enquête ouverte par la FTC
Face à ces inquiétudes, la Federal Trade Commission (FTC), l’agence américaine de protection des consommateurs, a annoncé l’ouverture d’une enquête. Sept entreprises sont concernées : OpenAI, Alphabet (Google), Character.AI, Meta, Instagram, Snap et xAI. La FTC souhaite comprendre comment ces sociétés mesurent et surveillent l’impact de leurs chatbots sur les enfants et adolescents. L’autorité a notamment demandé des informations précises sur les méthodes de test et les mesures de sécurité mises en place.
Lire aussi : Comment créer sa figurine "Starter Pack" gratuitement avec ChatGPT
Une technologie puissante mais à encadrer
Pour OpenAI, la nécessité de protéger les mineurs s’impose face à une technologie aussi puissante que nouvelle. L’entreprise reconnaît que les adolescents doivent bénéficier d’une protection renforcée, et invite d’ici là les parents à utiliser les outils de contrôle parental disponibles : fixation d’horaires d’accès, blocage de certains usages, suivi des conversations.
Lire aussi : « Les Brangelina français » : Léa Salamé et Raphaël Glucksmann taquinés en direct sur leur vie de couple
En résumé
Avec cette future mise à jour, ChatGPT s’apprête à franchir une nouvelle étape dans la régulation de ses usages. En distinguant mineurs et adultes, OpenAI espère répondre aux critiques et instaurer une relation de confiance avec les utilisateurs. Mais l’enquête de la FTC rappelle que le débat est loin d’être clos : entre innovation, sécurité et vie privée, l’équilibre reste fragile.
Découvrez maintenant Salaires du JT : combien gagnent réellement Anne‑Claire Coudray, Gilles Bouleau et Laurent Delahousse ? et Voici le salaire astronomique que Léa Salamé a refusé chez BFMTV pour présenter le JT de France 2.
Lire aussi : Pourquoi la tendance Starter Packs IA très virale suscite autant de critiques