Alors que la nouvelle application d’OpenAI proposée par le modèle de traitement du langage naturel (NLP), GPT3 – dans sa version davinci v3.5 fait le ramdam :-), je me suis amusé à interroger le modèle sur les cas où il serait inapproprié d’utiliser ChatGPT (les mots en gras ont été ajoutés).
- Sécurité des données : lorsque la sécurité des données est critique, car ChatGPT n’est pas conçu pour garantir la confidentialité des informations.
- Précision et approximation : lorsque la précision des réponses est cruciale, car ChatGPT est un modèle de traitement du langage naturel basé sur l’apprentissage automatique et peut donc faire des erreurs ou produire des réponses imprécises.
- Expertise sommaire : lorsque la question demande une expertise spécifique dans un domaine, ChatGPT peut ne pas avoir la capacité à générer des réponses précises.
- Fiabilité du diagnostic scientifique : lorsque la question est éthique, juridique ou médicale, il est préférable de consulter un professionnel pour obtenir des réponses précises et fiables.
ChatGPT ou le rêve d’accessibilité de l’Intelligence Artificielle : l’agent omnipotent et omniscient
À l’instar de l’auteur d’une histoire dont on serait le héros, ChatGPT semble précis dans ses réponses lorsqu’on l’interroge sur des faits ou sur des visions.
C’est le principe même du modèle de langage NLP, de prédire la suite d’un texte à partir d’un ensemble de mot. Sauf qu’on peut rapidement lui trouver des limites sur ses capacités intellectuelles si cette prédiction sort du domaine sémantique et s’étend dans un modèle de réflexion plus aboutie.
Le 5ᵉ cas à éviter est plutôt la croyance admise qu’un modèle de langage naturel peut se substituer à un raisonnement humain.
Alors oui ChatGPT est plus impressionnant que Siri dans l’idée d’un anthropomorphisme nettement plus aboutie (Siri est loin de nous étonner ou nous surprendre sauf à faire des blagues) mais ChatGPT est réaliste, jugez plutôt :