Éducation : OpenAI reconnaît son incapacité à détecter la tricherie avec ChatGPT 

[DIGITAL Business Africa] – L’ Intelligence artificielle en cette rentrée des classes suscite beaucoup de réflexion. Comment détecter un travail effectué par une IA générative à la demande d’un apprenants? Plusieurs éducateurs et parents se sont certainement posé cette question.  Il faut le reconnaître, les nouvelles technologies apportent des facilités dans la recherche mais lorsqu’on en vient à copier et coller un texte fidèlement et de s’en approprier la parenté, il y a lieu de penser que le niveau de nos apprenants jugés relativement bas, très bas par certains, n’est pas loin de décliner davantage. Puisque grâce à Midjourney pour l’illustration et ChatGPT pour le texte, ils peuvent obtenir un dessin et un texte selon leurs instructions.

Pour pallier le danger de la tricherie qui plane au-dessus de nos campus, l’entreprise américaine OpenAI a mis en ligne un guide, fin août 2023. Ce texte exhorte les enseignants à l’usage du chatbot ChatGPT, qui devrait en principe leur permettre de détecter des pratiques de tricherie dans les travaux de leurs apprenants et de se familiariser avec l’outil. Seulement, OpenAI elle-même a reconnu que son système a des « limites, ainsi que des préjugés et des biais de fonctionnement ».

« Bien que certains( entreprises développant des solutions IA) aient publié des outils censés détecter le contenu généré par IA, aucun d’entre eux n’a prouvé qu’il pouvait faire une distinction fiable entre le contenu généré par IA et celui créé par l’homme », affirme OpenAI, qui tente là de démontrer qu’aucun détecteur d’intelligence artificielle (IA) n’est  fiable jusqu’ici. L’entreprise américaine prévient même que les techniques de détection déjà existantes peuvent se tromper.

Une méprise assumée par OpenAI qui donne raison à Elon Musk et 1000 chercheurs favorables à un arrêt temporaire (six mois) des travaux liés à l’intelligence artificielle. Selon eux, ces logiciels introduisent de « profonds risques pour la société et l’humanité ». Ils constatent que les laboratoires sont lancés dans une « course hors de contrôle » pour développer et déployer des systèmes de machine learning. Le mémorandum avait été signé en mars 2023.

Par Jean Materne Zambo, source: numerama.com

Avez-vous aimé ce texte? Vous aimerez sans doute bien d'autres. Rejoignez notre canal Telegram et notre chaîne WhatsApp pour ne rien manquer de nos infos stratégiques et de nos exclusivités. Aussi, merci de nous laisser un petit commentaire au bas de cet article. Bonne navigation !
spot_img

1 COMMENTAIRE

LAISSER UNE RÉPONSE

SVP, entrez votre commentaire!
Veuillez saisir votre nom ici

A la Une cette semaine

Smart Click Africa appelle à la responsabilité numérique face à la diffusion de sextapes

– Suite à la diffusion massive sur les réseaux...

CGS 2025: Bassirou Diomaye Faye appelle à la digitalisation intégrale du système éducatif

– Au Sénégal, l'avenir c'est maintenant. Et il...

Digitalisation : La Namibie s’inspire du Djibouti Port Community System

– Djibouti, pays de la corne de l’...

Orange Cameroun rembourse ses clients après une panne majeure : transparence et réactivité saluées

- Suite aux perturbations du weekend du 26 au...

Régulation

L’ART inflige 2,6 milliards de F.CFA d’amendes à Orange Cameroun et MTN Cameroon

Le directeur général de l’Agence de Régulation des Télécommunications...

RD Congo : L’ ARPTC fixe les conditions d’obtention des titres pour les activités et services numériques, une mission dévolue à l’ARN

RD Congo : L’ ARPTC fixe les conditions d’obtention des titres pour les activités et services numériques, une mission dévolue à l’ARN

PUB

spot_img
spot_img

Articles similaires

Catégories populaires

spot_imgspot_img