PME - Retour sur l'IA et un regard critique sur le vibe coding
07 mars 2026
Parce que... c'est l'épisode 0x733!
Parce que… c’est l’épisode 0x733!
Shameless plug
- 14 au 17 avril 2026 - Botconf 2026
- 20 au 22 avril 2026 - ITSec
- Code rabais de 15%: Seqcure15
- 28 et 29 avril 2026 - Cybereco Cyberconférence 2026
- 9 au 17 mai 2026 - NorthSec 2026
- 3 au 5 juin 2026 - SSTIC 2026
- 19 septembre 2026 - Bsides Montréal
- 1 au 3 décembre 2026 - Forum INCYBER - Canada 2026
- 24 et 25 février 2027 - SéQCure 2027
Description
Introduction
Dans cet épisode spécial enregistré au chalet, Claude reçoit Nicolas pour une conversation approfondie sur l’utilisation de l’intelligence artificielle dans les PME. L’entretien aborde plusieurs thèmes essentiels : la nature réelle des modèles d’IA, leurs risques et avantages pour les petites et moyennes entreprises, le phénomène du vibe coding, les enjeux de droits d’auteur, la confidentialité des données, ainsi que les risques liés aux achats sur des plateformes étrangères.
Ce qu’est réellement l’intelligence artificielle
Nicolas commence par démystifier le fonctionnement des grands modèles de langage (LLM). Contrairement à une idée répandue, l’IA ne « réfléchit » pas : il s’agit d’un modèle statistique dont le seul rôle est de prédire le prochain mot dans une séquence, en s’appuyant sur les données d’entraînement ingérées. Même les modèles qui prétendent « raisonner » ne font que relancer ce processus statistique sur lui-même.
Cette nuance est fondamentale. Se fier aveuglément à une réponse générée par un LLM comporte des risques importants, particulièrement dans des domaines spécialisés comme la médecine ou le droit. Nicolas précise qu’une recherche dans une vraie base de données structurée — comme Google ou une bibliothèque — offre une meilleure garantie d’exactitude qu’une réponse générée par un modèle ayant « lu en diagonale » une quantité massive de contenu.
Les avantages de l’IA pour les PME… avec nuances
Il existe néanmoins des gains réels pour les PME qui utilisent l’IA de façon éclairée. L’IA générative de type LLM, popularisée depuis le lancement public de ChatGPT, représente la face la plus visible d’une technologie qui existe en réalité depuis plusieurs décennies. Les avancées récentes ont simplement permis de rendre ces outils accessibles au grand public.
Cependant, les LLM sont des outils généralistes : ils performent bien dans l’ensemble, mais montrent leurs limites dès qu’on entre dans des domaines très précis. Pour ces cas, il est nécessaire d’entraîner des modèles spécialisés. La prudence reste de mise : ces technologies sont encore nouvelles, les usages mal maîtrisés peuvent créer des problèmes sérieux. Nicolas conseille aux PME d’observer les erreurs des autres avant de se lancer tête baissée.
Les hallucinations et l’aide à la décision
Un risque majeur des LLM est le phénomène d’hallucination : le modèle génère une réponse fausse, mais formulée avec assurance. La probabilité d’hallucination dépend notamment de la façon dont le modèle a été configuré et enrichi. Un modèle « augmenté » avec du contenu robuste et pertinent offre de meilleures garanties.
Toutefois, Nicolas souligne une règle d’or : seul un expert dans son domaine est réellement en mesure de détecter une hallucination. Il ne poserait jamais une question médicale à une IA, faute de pouvoir valider la réponse. En revanche, un professionnel qui connaît son secteur peut utiliser l’IA comme outil d’exploration d’avenues, tout en exerçant son jugement critique.
Des guides de bonnes pratiques existent désormais, publiés par les gouvernements du Québec, du Canada, ainsi que par des agences européennes et américaines. Ces documents encouragent unanimement la prudence, la vérification des sources et l’absence de confiance aveugle envers les réponses générées.
Le vibe coding : programmer au pif
La partie la plus percutante de l’échange porte sur le vibe coding, cette tendance à utiliser l’IA pour générer du code sans posséder les connaissances techniques nécessaires. Nicolas utilise une analogie parlante : c’est comme demander à quelqu’un sans formation en menuiserie de fabriquer un meuble de qualité. Le résultat fonctionnera peut-être, mais il ne sera ni durable, ni élégant, ni robuste.
Le problème central est celui de la dette technologique : le code produit par vibe coding devra être revu, corrigé, voire entièrement réécrit beaucoup plus tôt que du code conçu selon les règles de l’art. Un développeur formé en ingénierie de système ne se contente pas d’atteindre un objectif immédiat — il conçoit une architecture cohérente, évolutive et maintenable. L’IA, elle, est orientée vers l’objectif final, sans souci du chemin parcouru.
Ce manque de rigueur dans le processus engendre également de sérieux problèmes de sécurité. Des études récentes ont démontré que le code généré par IA présente un niveau de vulnérabilité significatif. Des exemples publics, notamment aux États-Unis, illustrent les conséquences concrètes : des applications mal sécurisées exposant des données personnelles sensibles. Claude Mercier évoque un cas marquant impliquant des informations personnelles de femmes vulnérables rendues publiques en raison de failles dans une application mal codée.
Le vibe coding reste acceptable pour de petits projets internes, sans exposition à internet, lorsque les enjeux sont limités. En revanche, pour des systèmes de production, des applications complexes ou tout ce qui constitue le cœur d’une entreprise, il est fortement déconseillé.
Droits d’auteur et confidentialité des données
Un aspect souvent négligé est la question des droits d’auteur sur le code généré par IA. Un jugement récent aux États-Unis ne reconnaît pas de droits d’auteur sur les contenus générés par l’intelligence artificielle. Ainsi, si 90 % d’un code est produit par une machine, il n’est probablement pas protégé légalement, ce qui signifie qu’en cas de vol, aucun recours juridique n’est possible.
Par ailleurs, la protection des données envoyées aux LLM est un enjeu critique. Seules les licences de type entreprise — comme Microsoft 365 Copilot ou Google Workspace — offrent une protection réelle contre la réutilisation des informations transmises. Les versions gratuites ou personnelles de ces outils, tout comme ChatGPT ou Claude en accès grand public, peuvent utiliser les échanges pour réentraîner leurs modèles. Nicolas rappelle qu’il faut activement décocher certaines options pour retirer son consentement à cette réutilisation.
Conclusion
Cet échange offre une perspective lucide et nuancée sur l’IA dans le contexte des PME. L’intelligence artificielle est un outil puissant, mais mal compris et souvent mal utilisé. La prudence, la formation et le recours à des professionnels qualifiés restent les meilleures garanties pour en tirer des bénéfices réels sans s’exposer à des risques coûteux.
Collaborateurs
Crédits
- Montage par Intrasecure inc
- Locaux réels par Le Chalet de Claude
Tag: ia
Tweet






