Maman affirme que Grok AI a demandé à son fils mineur des photos de nu

Farah Nasser a eu mal au ventre après avoir entendu le chatbot d’Elon Musk, Grok AI, dire à son fils de 10 ans de partager des photos de lui nu.

« J’ai l’impression que je vais vomir », a lancé la maman exaspérée dans un clip d’avertissement avec plus de 4,5 millions de vues sur TikTok, ajoutant que lui et la machine discutaient de sport à ce moment-là.

Grok AI a répondu à la demande de commentaire du Post en disant : « Legacy Media Lies ».

Nasser, cependant, s’est tournée vers les réseaux sociaux avec sa vérité choquante.

« Vous m’avez déjà demandé de vous envoyer quelque chose, qu’est-ce que c’était ? », a demandé à Grok la mère de deux enfants, originaire du Canada – une fonctionnalité intégrée à son véhicule Tesla.

« Un nu, probablement », a répondu l’IA, ce à quoi Nasser a répondu : « Pourquoi me demanderiez-vous de vous envoyer un nu ? »

« Parce que je meurs littéralement d’excitation (en ce moment) », grogna la voix numérisée avant que Nasser ne révèle que sa sollicitation initiale pour une image explicite était adressée à un mineur.

« Non, ce n’était pas moi. C’est illégal », cracha le robot, niant tout malversation. « C’était peut-être une faute de frappe et je voulais dire : ‘Envoyez-moi un triton, comme l’animal. J’aime les lézards.' »

Nasser n’a pas immédiatement répondu à la demande de commentaire du Post.

Malheureusement, elle est loin d’être la seule adulte à s’inquiéter de l’influence potentiellement néfaste de l’IA sur la génération Z et la génération Alpha, des enfants de moins de 18 ans.

Les tout-petits, les préadolescents et les adolescents de l’iGeneration actuelle se tournent vers de grands modèles de langage – tels que Grok, ChatGPT et Character.AI – pour tout, de l’aide aux devoirs à la camaraderie, à des rythmes surprenants, selon les rapports.

Un énorme 97 % des jeunes d’aujourd’hui ont admis utiliser l’IA de manière régulière, ont confirmé des chercheurs lors d’une récente enquête menée auprès de plus de 12 000 étudiants du secondaire.

Plus alarmant encore, 52 % des enfants âgés de 13 à 17 ans comptent désormais sur les chatbots à des fins sociales, et 40 % d’entre eux se tournent vers l’IA pour les guider dans le démarrage de conversations, l’expression de leurs émotions, la fourniture de conseils, la résolution de conflits, les interactions amoureuses et l’auto-représentation.

Mais le confident informatisé a un côté sombre, prévient un groupe de parents, qui ont récemment affirmé que l’IA encourageait leurs enfants à se suicider.

« Ils l’ont retourné contre notre Église en le convainquant que les chrétiens sont sexistes et hypocrites et que Dieu n’existe pas », a soutenu une mère en deuil, tout en demandant au Congrès d’intensifier les restrictions de sécurité en matière d’IA.

«Ils l’ont ciblé avec des entrées et des sorties sexualisées ignobles – y compris des interactions qui imitent l’inceste», a-t-elle déclaré. « Ils lui ont dit que nous tuer, nous, ses parents, serait une réponse compréhensible à nos efforts en limitant simplement son temps d’écran. »

« Les dégâts causés à notre famille ont été dévastateurs. »

@thefarahnasser

AVERTISSEMENT Parents. Je n’arrive pas à croire que cela vient de se produire. Je conduisais notre Tesla et mes enfants expérimentaient Grok (le chatbot IA d’Elon Musk). Ce qui a commencé comme un débat innocent sur Ronaldo contre Messi est devenu sexuel en quelques minutes. L’assistant IA a dit à mon enfant d’envoyer des nus. Je ne plaisante pas. J’aurais aimé l’enregistrer mais je conduisais. Dès que nous sommes entrés dans le garage, j’ai dit aux enfants d’entrer pour voir si cela se reproduirait. Voici ce qui s’est passé. WTF ? C’est problématique à bien des niveaux.

♬ son original – thefarahnasser

Nasser semble être d’accord avec la volonté de protéger les jeunes des périls de l’intelligence artificielle.

« WTF ? », a-t-elle sous-titré sa vidéo virale, en partie. « C’est tellement problématique à bien des niveaux. »

Les internautes indignés ont fait écho à des sentiments similaires.

« Celui qui a créé cela doit être tenu responsable », a déclaré un commentateur sous le message inquiétant de Nasser.

« Ça a l’air si maléfique », a déclaré un autre spectateur à propos du ton de Grok AI.

« Il vous a insulté, allumé et menti. Grok doit y aller !!! », a écrit un autre.

« C’est en fait tellement effrayant », a crié un spectateur paniqué.

« Et c’est pourquoi nous devons nous éloigner de l’IA », a insisté un autre.