Modèles
Accueil
Entreprises
Éducation
Institutions
Grand public
Modèles
Serveurs
À propos
App
EN
ProductivIA
Modèles génératifs

Raisonnement avancé, contexte québécois

Un modèle de langage est un système d’intelligence artificielle entraîné à prédire la suite de mots la plus probable selon le contexte. C’est ce qui permet à une IA de comprendre une question, de rédiger un texte cohérent, de reformuler, de résumer ou même de générer du code.

Chez ProductivIA, nous concevons nos propres modèles à partir de bases libres éprouvées, que nous enrichissons avec des contenus québécois : corpus locaux, publications officielles, normes administratives et usages culturels.
Cette adaptation permet au modèle d’intégrer la sensibilité linguistique, institutionnelle et culturelle du Québec dans chacune de ses réponses.

Nous déployons deux niveaux de modèles intelligents :

  • Un modèle léger, rapide et éco-énergétique, qui gère la majorité des requêtes et oriente les plus complexes vers le bon moteur.
  • Un modèle avancé, doté d’une capacité de raisonnement approfondie, pour les analyses ou les tâches exigeant une compréhension fine, tout en préservant l’ancrage contextuel québécois.
Moteur léger vs Moteur robuste

Les fondations d’une IA agentique

L’architecture hybride à double moteur, combinée à une couche d’orchestration intelligente, offre dès aujourd’hui les fondations d’une IA agentique véritablement au service du Québec. Grâce à cette approche, nous ne nous contentons pas de répondre : nous agissons, planifions, assurons la cohérence et interagissons avec plusieurs systèmes en respectant le contexte, la sécurité et les priorités locales.

Le moteur léger traite les requêtes courantes avec rapidité et efficience ; le moteur robuste prend le relais lorsqu’une tâche demande un raisonnement poussé, un contrôle stricte ou une action externalisée. L’orchestrateur, quant à lui, dirige la circulation entre les deux moteurs, appelle les services externes quand nécessaire, vérifie les formats, filtre les risques, et supervise les agents intermédiaires. Ainsi, l’IA ne se limite pas à une simple interface de question-réponse : elle devient un agent autonome, capable d’exécuter des workflows (collecte de données, validation, synthèse, déclenchement d’actions) tout en respectant les exigences spécifiques du contexte québécois (langue, sécurité, conformité).

En combinant réactivité, précision contextuelle et contrôle robuste, cette infrastructure hybride permet de bâtir dès maintenant des agents IA qui comprennent, agissent et s’adaptent aux réalités du Québec — que ce soit pour l’administration publique, l’éducation, la santé ou d’autres secteurs stratégiques, avec un haut niveau de confiance.

editor_choice

Disposer de modèles québécois n’est pas seulement une option technique

C’est un choix politique, culturel et environnemental

Le Québec, avec son électricité majoritairement hydroélectrique et ses émissions parmi les plus faibles au monde, offre une base durable pour l’intelligence artificielle.

En construisant des modèles enrichis de contenus, d’usages et de références propres à notre province, nous évitons que notre culture soit diluée dans des IA mondialisées qui parlent “universel” mais oublient nos racines.

Pendant trop longtemps, nous avons cédé notre autonomie numérique : qui contrôle la technologie, contrôle le récit. Nous assistons déjà aux effets de cette dépendance — les plateformes globales imposent leurs règles et leurs biais, et le Québec perd une part de sa capacité à décider. En ayant nos propres modèles, nous renforçons notre résilience : nous pouvons orienter l’évolution selon nos valeurs, défendre nos langues autochtones, rehausser notre patrimoine culturel et assurer que les réponses générées tiennent compte de notre réalité locale.

C’est notre voie vers une autonomie numérique réelle : ne pas subir la technologie, mais la façonner. Le Québec doit pouvoir innover, agir selon sa volonté, et bâtir un avenir où notre destin numérique ne sera plus dicté par des serveurs lointains.

data_saver_on

Enrichissement des modèles par savoirs québécois

Formation locale + récupération documentaire

Nos modèles sont adaptés et enrichis localement pour mieux comprendre le contexte québécois.
Nous procédons à une intégration directe de contenus vérifiés — données ouvertes, publications officielles, corpus sectoriels — afin que le modèle dispose, dès son déploiement, d’un savoir enraciné dans la réalité culturelle, linguistique et réglementaire du Québec.
Ce processus d’ingestion n’est pas un simple ajout de contexte : il renforce la structure même du modèle pour qu’il interprète et formule ses réponses à partir de références locales et fiables.

À cette base s’ajoute une couche de récupération documentaire (RAG), qui permet d’aller chercher, en temps réel, des passages précis dans vos propres documents ou dans nos bases actualisées. Le modèle combine alors ses connaissances internes avec ces sources externes pour générer des réponses à la fois intégrées, actualisées et traçables.

Nos corpus d’apprentissage et de référence sont mis à jour en continu : nouvelles lois, publications gouvernementales, jeux de données publics, corpus spécialisés revus et validés.

Un modèle qui comprend le Québec

Diversité linguistique

Langues regionales et autochtones

Nous mettons un effort soutenu pour intégrer les particularités linguistiques du français dans toute sa diversité, ainsi que les principales langues autochtones dans nos modèles : reconnaissance, compréhension fine, génération, dans la mesure où les données le permettent, avec un plan d’amélioration constant.

Langues européennes

Français (québécois, cadien, acadien, louisianais, métis, caribéen, haïtien, belge, suisse, africain), Espagnol (espagnol d’Amérique latine, andalou, canarien, caribéen, équatorien), Italien, Portugais, Roumain, Catalan, Occitan, Galicien, Latin, Anglais (américain, britannique, australien, indien, sud-africain), Allemand (bavarois, souabe, bas allemand), Néerlandais, Suédois, Danois, Norvégien, Islandais, Afrikaans, Luxembourgeois, Irlandais, Gaélique écossais, Gallois, Breton, Lituanien, Letton, Grec moderne, Finnois, Hongrois, Estonien, Basque, Albanais, Polonais, Macédonien, Biélorusse, Russe, Tchèque, Slovaque, Ukrainien, Bulgare, Serbe, Croate, Slovène

Langues austronésiennes : Malais, Indonésien, Tagalog (Filipino), Javanais, Hawaïen, Maori
Langues dravidiennes : Tamoul, Télougou, Kannada, Malayalam, Tulu
Langues ouraliennes : Finnois, Estonien, Hongrois, Same (sami)
Langues turques (ou turciques) : Turc, Azerbaïdjanais, Ouzbek, Kazakh, Turkmène, Kirghiz, Tatar
Langues iraniennes : Persan (Farsi), Dari, Pachto, Kurde, Baloutche
Langues sémitiques : Arabe, Hébreu, Amharique, Tigrinya, Araméen

Langues autochtones

Cri, cri des plaines, cri des bois, cri du Nord, Inuktitut, Ojibwe, Mi'kmaq, Innu-aimun, Tlingit, Haida, Tsimshian, Nuu-chah-nulth, Salish, Tlicho, Dene, Blackfoot, Ojibwe (algonquin), Mi'kmaq (micmac), Inuktitut (inuktitut syllabic)

Langues amérindiennes

Quechua, Aymara, Nahuatl, Guarani

Langues asiatiques

Mandarin, Cantonais, Taïwanais (Hokkien), Japonais moderne, Coréen moderne, Hindi, Bengali, Tamoul, Telugu, Marathi, Ourdou, Pendjabi, Gujarati, Kannada, Malayalam, Vietnamien, Thaï, Indonésien, Malais, Tagalog (Filipino), Birman, Khmer, Turc, Azéri, Kazakh, Ouzbek, Turkmène, Hébreu, Amharique, Persan (Farsi), Dari, Pachtô

Langues caucasiennes : Géorgien, Abkhaze, Tchétchène, Avar, Lesghien
Langues papoues et océaniennes : Tok Pisin, Hiri Motu, Kuman, Enga, Motu, langues de Papouasie-Nouvelle-Guinée
Langues aborigènes australiennes : Warlpiri, Pitjantjatjara, Yolngu, Arrernte
Langues eskimo-aléoutes : Yupik, Aléoute

Langues africaines

Arabe, Amharique, Swahili, HausaYoruba, Zoulou, Shona, Xhosa, Afrikaans, Somalien, Tigrinya, Tamazight, Hébreu, Zarma, Fulfulde, Wolof, Soudanais, Haoussa, Bantou, Bambara, Béla, Sotho, Tswana, Setswana, Shona, Nyanja, Chewa, Lingala, Lingala central, Kiswahili, Lusoga, Luganda, Luyia, Lugbara, Runyankore, Runyakitara, Kinyarwanda, Kirundi, Tshiluba, Lunda, Kimbundu, Kikongo, Lingála, Luba-kasai, Luba-bangala, Luba-lulua, Lunda-tchokwe, Lunda-ngala, Venda, Tsonga, Shangaan, Shona du nord, Ndebele du nord, Ndebele du sud, Nama, Herero, Tswana du nord, Sotho du nord, Sotho du sud, Tswana du sud, Venda, Tsonga, Xhosa, Zoulou, Swazi, Oromo, Somali, Igbo, Dinka, Nuer, Kurde, Égyptien, Levantin, Maghrébin, Golfe

Langues isolées et anciennes : Basque, Aïnou, Burushaski, Sumérien, Élamite
Langues créoles et mixtes : Créole haïtien, Papiamento, Tok Pisin, Chavacano, Krio, Créole cap-verdien
Langues nilo-sahariennes et khoïsanes: Masaï, Kanuri, Zaghawa, Nama, ǃXóõ
Langues construites : Espéranto, Interlingua, Lojban, Toki Pona, Klingon

Codage

Capacité de codage puissante : Python, JavaScript, Java, C++, C#, Ruby, PHP, Swift, Go, R, SQL, Kotlin, TypeScript, Scala, Lisp, Haskell, Perl, Fortran, COBOL, Pascal, Assembly, Ada, Erlang, Elixir, Rust, Dart, Julia, Lua, Scheme, Erlang, Smalltalk, Apex, ActionScript, Prolog, OCaml, F#, Groovy, Delphi, PowerShell, Bash, Visual Basic (VB.NET), QBasic, Visual Basic for Applications (VBA), MATLAB.

bolt

Autonomie énergétique & résilience

Pensée locale, consommation maîtrisée

Étant hébergés au Québec (ou sur vos infrastructures), nos modèles peuvent répondre localement dans la plupart des cas, sans faire appel à des services externes énergivores.
Cette approche garantit une autonomie accrue, une résilience opérationnelle et une empreinte carbone réduite, tout en assurant la rapidité et la pertinence des réponses.

Détails techniques

whatshot

Origine & calibration

Nos modèles reposent sur des architectures solides (Mistral 7B pour le modèle standard, Mixtral 8x22B pour le modèle renforcé), enrichies par nos propres couches de connaissances québécoises, prompts, ajustements culturels et sectoriels.
Ils partagent une même base de données / corpus, mais diffèrent selon la profondeur de leur architecture et la capacité de raisonnement.

counter_1

Moteur léger

  • Base Mistral 7B
  • Modèle dense classique (transformer decoder-only)
  • Contexte (tokens entrants) : ~8 k
  • Sortie (tokens générés) : ~4 k
  • Couche culturelle par intégration directe
  • Récupération documentaire (RAG)

Modéle dense : chaque token traverse toutes les couches/poids. Il utilise GQA pour accélérer l’attention et SWA (Sliding-Window Attention) pour mieux gérer des séquences plus longues à coût mémoire contrôlé. Résultat : débit/latence excellents, faible consommation énergétique.

counter_2

Moteur robuste

  • Base Mixtral 8x22B
  • Modèle SMoE — Mixture-of-Experts
  • Contexte (tokens entrants) : ~64 k
  • Sortie (tokens générés) : ~4 k
  • Couche culturelle par intégration directe
  • Récupération documentaire (RAG)

Modéle sparse MoE : à chaque couche et pour chaque token, un routeur choisit 2 experts sur 8 (feed-forward blocks) et combine leurs sorties. On bénéficie d’un capacité effective très grande (141 B) mais seuls ~39 B sont activés par token pour un rapport performance/coût optimum.

contact_support

Questions fréquentes

Qu’est-ce qu’un modèle de langage ?

Un modèle de langage est une IA entraînée à prédire la suite la plus probable de mots selon le contexte. Il peut comprendre une question, rédiger, reformuler, résumer ou générer du code.

Que signifie “modèle ouvert” ?

Nous partons de modèles open-source robustes (comme ceux de la famille Mistral), ce qui nous permet d’en adapter les paramètres, d’y intégrer du contenu québécois et de les héberger localement.

Quelle est la différence entre les deux modèles ?

Le modèle léger répond rapidement à la plupart des requêtes ; le modèle avancé dispose d’une capacité de raisonnement approfondie pour les tâches complexes, tout en restant enraciné dans le contexte québécois.

Qu’est-ce que la méthode RAG ?

RAG (Retrieval-Augmented Generation) permet au modèle d’aller chercher des informations précises dans des sources fiables avant de répondre, assurant des réponses actualisées et vérifiables.

Où sont hébergées les données ?

Toutes les données sont stockées et traitées au Québec, dans nos propres infrastructures ou sur les serveurs de votre organisation. Aucun transfert n’est effectué sans évaluation préalable.

Les données sont-elles utilisées pour entraîner les modèles ?

Non. Les requêtes des utilisateurs ne servent jamais à l’entraînement. Nos modèles sont ajustés à partir de corpus publics, officiels ou explicitement autorisés.

Quelle est la taille du contexte des modèles ?

Le modèle standard traite environ 8 000 tokens par requête, tandis que le modèle avancé peut gérer jusqu’à 64 000 tokens, ce qui lui permet de raisonner sur des documents longs.

Quelle est la consommation énergétique ?

Nos modèles locaux sont optimisés pour une faible consommation énergétique, alimentés par une électricité québécoise à faible émission de gaz à effet de serre.

Peut-on utiliser ProductivIA sans connexion Internet ?

Oui. Les éditions locales peuvent fonctionner entièrement hors ligne, selon les politiques et l’infrastructure de votre organisation.

Cette architecture est-elle conforme à la Loi 25 ?

Oui. Tous nos traitements respectent la Loi 25 et les exigences d’évaluation des facteurs relatifs à la vie privée (EFVP) avant tout transfert ou intégration.

Comment les modèles sont-ils mis à jour ?

Nous proposons des mises à jour régulières intégrant de nouvelles données publiques, des publications officielles et des corpus sectoriels validés pour maintenir la pertinence des réponses.

Peut-on intégrer ses propres documents ?

Oui. Vous pouvez ajouter vos référentiels, politiques internes ou corpus métiers ; ils seront indexés pour être utilisés par la récupération documentaire (RAG) lors des requêtes.

En vous inscrivant, vous acceptez de recevoir nos nouvelles. Vous pouvez vous désinscrire à tout moment.
© ProductivIA 2025
info@productivia.ca - 1-833-823-6647
296, rue Saint-Pierre - Matane, QC G4W 2B9
300-204 rue du Saint-Sacrement, Montreal, QC H2Y 1W8
Politique de confidentialité - Mentions légales, accessibilité et conformité