Aller au contenu principal
Guide IAOrdre des CPA du Québec

Comprendre l'IA en 10 minutes

L'essentiel sur l'IA générative : pyramide IA, prédiction du mot suivant, hallucinations et fenêtre de contexte.

1/5
9 min
Débutant

La pyramide : du général au spécifique

L'« intelligence artificielle » est un terme générique qui englobe un large éventail de technologies et de solutions, de l'automatisation des tâches répétitives à l'analyse prédictive de données financières :

NiveauDéfinition
IA (Intelligence Artificielle)L'idée générale : Toutes les méthodes informatiques qui essaient d'imiter la façon dont nous pensons et agissons, que ce soit pour classer des choses ou pour en créer. C'est le grand domaine d'étude.
Apprentissage Automatique (Machine Learning)Apprendre par l'exemple : La méthode où l'ordinateur apprend à identifier des tendances et à prendre des décisions en analysant des montagnes de données, sans qu'on lui donne des règles explicites.
Apprentissage Profond (Deep Learning)Apprendre en couches : Une méthode d'apprentissage superpuissante (Machine Learning) qui utilise des réseaux de neurones complexes (à plusieurs couches) pour extraire des informations et comprendre des concepts très abstraits et complexes.
IA GénérativeLe créateur de contenu : Une catégorie d'IA basée sur le Deep Learning capable de créer du contenu original (texte, images, code, etc.), par opposition à l'IA classique qui ne fait que classifier.
LLM (Modèle de Langage étendu)Le pro des mots (le produit final) : Ce sont des modèles spécialisés dans le traitement du langage, qui utilisent la technique du Deep Learning pour fonctionner en mode IA Générative. Ils excellent à créer et discuter en prédisant le mot le plus probable. C'est ici que se trouvent ChatGPT, Claude et Gemini.

Ce qui rend l'IA générative différente

L'IA classique catégorise (« Ce courriel est-il un spam? » → Oui/Non). L'IA générative crée du contenu nouveau :

  • « Rédige un courriel de relance pour ce client »
  • « Résume ce rapport de gestion de 50 pages »
  • « Explique cette variance budgétaire à mon directeur »

Comment ça fonctionne : prédire le mot suivant

Un LLM fait une seule chose : prédire le mot le plus probable après une séquence de mots, puis recommencer pour le mot suivant.

Exemple : Vous écrivez « L'écart budgétaire sur les frais de... »

Mot possibleProbabilité
production45 %
vente28 %
marketing15 %
personnel8 %

Le modèle a été entraîné sur des milliards de pages (manuels, articles, sites web, documents techniques). Il a appris des structures (patterns) : après « états », le mot « financiers » apparaît souvent ; un mémo de clôture suit une certaine structure ; une analyse de variance commence par les écarts significatifs.

Un LLM peut ainsi comprendre et prédire du texte de manière cohérente, mais aussi du code informatique, des formules mathématiques, etc. Certains LLM peuvent, grâce à l'IA Générative, produire des images, des vidéos, de la musique etc.

L'analogie du stagiaire ultra-cultivé

Imaginez un stagiaire qui a lu toute la bibliothèque comptable: manuels comptables, lois et jurisprudence fiscale, normes NCECF, rapports annuels, forums internet...

Il peut parler de presque tout avec assurance, reconnaître les patterns et générer du contenu qui « ressemble » à ce qu'il a lu.

Mais il n'a jamais travaillé sur un vrai dossier, il ne vérifie pas si ce qu'il dit est vrai, il peut parfois mélanger des sources, et il ne sait pas ce qu'il ne sait pas.

L'IA ne « sait » pas — elle hallucine

À moins d'instruction explicite, l'IA ne consulte pas de base de données de faits. Elle génère ce qui semble correct basé sur des patterns statistiques. C'est pourquoi elle peut produire des hallucinations :

  • Citer un article de loi qui n'existe pas
  • Donner un taux d'imposition obsolète avec assurance
  • Inventer une référence NCECF plausible mais fictive
Date de fin d'entraînement

Un point critique à comprendre : un LLM n'est pas "branché" automatiquement sur l'actualité. La plupart des modèles sont entraînés sur un corpus qui s'arrête à une date de fin d'entraînement (cutoff). Tout ce qui s'est produit après cette date — nouvelles économiques, changements réglementaires, résultats trimestriels, fusions, nouveaux taux, nouveaux produits, etc. — n'est pas présent dans ses paramètres. Autrement dit, le modèle peut très bien expliquer des concepts, mais il ne peut pas "savoir" spontanément ce qui a changé récemment si on ne lui fournit pas l'information.

Cette limite a deux conséquences pratiques. Premièrement, si on lui demande des faits récents, il peut répondre avec des informations périmées ou, pire, inventer une réponse plausible pour combler le manque (hallucination). Deuxièmement, même quand il "raisonne" correctement, il raisonne sur une base de connaissances qui peut ne plus refléter la réalité actuelle. La bonne pratique est donc de lui fournir des sources à jour (extraits d'articles, chiffres, liens, documents internes) ou de le combiner à un mécanisme de recherche/connexion à des données afin qu'il cite et utilise des informations récentes et vérifiables.

La mémoire de l'IA : le contexte

Le contexte représente la quantité de texte que l'IA peut traiter en même temps — sa « mémoire de travail ». Pensez à un bureau avec une surface limitée : vous pouvez y étaler plusieurs documents, mais pas une bibliothèque entière.

ModèleCapacité (tokens)Équivalent (pages)
Google Gemini 2.5 Pro1M–2M≈ 2 000–4 500
GPT-4.1 (OpenAI)Jusqu'à 1M≈ 2 000
Claude Sonnet 4/4.5200K–1M≈ 450–2 000
ChatGPT (GPT-4o)128K≈ 300
OpenAI — GPT-5.2 (API)400K≈ 900
OpenAI — ChatGPT (GPT-5.2 dans l'app)16K (Gratuit), 32K (Plus/Business), 128K (Pro/Enterprise)≈ 35-280
Anthropic — Claude Opus 4.6200K standard / 1M beta≈ 450 / ≈ 2 000
Google — Gemini 3 Pro (Vertex AI)~1M (1,048,576)≈ 2 300

En pratique, vous pouvez analyser un contrat complet, comparer des états financiers sur 3 ans ou résumer un rapport de gestion mensuel.

Bonnes pratiques

Une conversation par sujet, nouvelle conversation = mémoire fraîche, répétez les informations critiques si la conversation s'allonge.

Quiz

Un CPA demande à l'IA de citer l'article exact de la LIR concernant la déduction pour petite entreprise. L'IA répond avec assurance en citant un numéro d'article très précis. Quelle est la meilleure interprétation ?

A. L'IA a consulté la LIR dans sa base de données et la référence est fiable

B. L'IA a prédit un numéro d'article statistiquement probable, qui peut être incorrect

C. L'IA ne peut jamais citer de références légales correctes

D. L'IA a inventé la référence intentionnellement pour tromper l'utilisateur

Explication : L'IA ne consulte pas de base de données de faits vérifiés. Elle prédit le mot (ou le chiffre) le plus probable après chaque séquence de texte. Un numéro d'article cité avec assurance peut être exact comme il peut être une invention plausible. Toute référence légale ou normative doit être vérifiée dans les sources officielles.

Exemples d'applications pour les professionnels de la comptabilité (CPA)

ProfilCe que l'IA fait bienPoints de vigilance
CPA soloRédaction de mémos fiscaux structurés, reformulation et raffinement de courriels adressés aux clients.Toujours vérifier les articles de loi, taux d'imposition ou données chiffrées citées.
CPA en cabinetSynthèse de procès-verbaux de réunions, préparation de listes de contrôle d'audit, et reformulation de conclusions ou d'opinions.Risque de confusion entre les normes d'audit (ex. : NCA et PCAOB) ou d'invention de numéros de paragraphes normatifs.
CPA en comptabilité de gestionProduction d'analyses d'écarts (variances), élaboration de commentaires budgétaires et rédaction de rapports de gestion préliminaires.L'IA n'a pas de connaissance intrinsèque de votre entreprise — les hypothèses et le contexte doivent être validés.
CPA en grande entrepriseRésumés de consolidation complexes, préparation de présentations au conseil d'administration utilisant la terminologie IFRS.L'IA peut générer des chiffres incorrects ou inventés — elle est prédictive, et non une calculatrice fiable.