Apertus, le modèle d’IA suisse : enjeux, spécificités techniques et perspectives d’évolution

Présentation d’Apertus : un modèle linguistique suisse innovant

Dévoilé mardi, Apertus est un modèle d’intelligence artificielle conçu en Suisse, qui se distingue par son approche open source et son orientation multilingue. Fruit de la collaboration entre l’EPFL, l’EPFZ et le Centre suisse de calcul scientifique (CSCS) à Lugano, ce projet souligne une volonté de proposer une alternative aux grandes plateformes technologiques américaines.

Technologies et architecture d’Apertus

Un accès transparent aux composantes techniques

L’architecture logicielle d’Apertus, ses techniques d’entraînement ainsi que les pondérations appliquées sont accessibles publiquement, tout comme les sources des données utilisées. Cette transparence permet une traçabilité complète du processus de collecte des corpus d’apprentissage.

Une base de données multilingue

Le modèle s’est nourri d’un corpus gigantesque comprenant 15 billions de tokens rassemblés dans plus de 1000 langues. Parmi elles, environ 40% ne sont pas anglophones, avec une attention particulière portée au suisse allemand et au romanche. Cette diversité linguistique différencie Apertus des modèles concurrents largement centrés sur l’anglais.

Respect des normes en matière de données et diversité culturelle

Apertus repose uniquement sur des informations librement accessibles, dont les données personnelles ont été extraites conformément aux demandes de retrait. Ainsi, le projet entend répondre aux exigences légales suisses en matière de protection des données, tout en adhérant aux principes de transparence de la réglementation européenne sur l’intelligence artificielle.

La volonté d’inclure un large éventail de langues, des plus répandues aux minoritaires, laisse penser que ce modèle pourrait devenir l’un des plus diversifiés au niveau mondial, selon ses concepteurs.

Accès et utilisations professionnelles du modèle

Versions disponibles et soutien stratégique

Conçu avant tout pour des applications professionnelles, Apertus est proposé en deux versions, comprenant 8 milliards et 70 milliards de paramètres, accessibles via la plateforme Hugging Face. En comparaison, GPT-5 est estimé à environ 52 milliards de paramètres. Le projet bénéficie du soutien de Swisscom, qui fournit également des solutions cloud associées.

Options de test pour le grand public

Une expérimentation directe est possible grâce au chatbot publicai.co, mis à disposition par le collectif Public AI. L’accès sans inscription donne la possibilité d’exploiter la version 8B, tandis qu’une inscription permet d’utiliser la version 70B.

Premiers retours utilisateurs et limites observées

Lors des essais menés sur la version la plus puissante d’Apertus, des performances variables ont été relevées. Le modèle affiche certains des défis typiques des grands modèles de langage, notamment l’absence d’un véritable raisonnement logique qui limite ses capacités à résoudre des problèmes nécessitant une réflexion analytique.

Les erreurs factuelles récurrentes et phénomènes d’”hallucinations” ont suscité des retours critiques de la part de certains testeurs.
Par exemple, Xavier Comtesse, président de Manufacture Thinking, a évoqué un sentiment de «honte» dans les colonnes du journal Le Temps. De son côté, Charles-Edouard Bardyn, cofondateur d’AI Swiss, a qualifié l’outil de «pas utilisable dans l’état actuel».

Défis spécifiques en matière linguistique

Malgré l’intégration du romanche dans le corpus, la qualité des traductions vers cette langue soulève des questions. Michelle Freund et Nadja Hort, enseignantes en Haute-Engadine, ont estimé que les traductions générées par Apertus étaient peu satisfaisantes, notamment à cause de mélanges dialectaux et d’erreurs grammaticales fréquentes. À titre de comparaison, le modèle GPT-5 semble offrir des rendus plus aboutis dans ce domaine.

Perspectives d’évolution et ambitions du projet Apertus

Antoine Bosselut, responsable du Laboratoire de traitement du langage naturel à l’EPFL, a tempéré les critiques en indiquant qu’elles étaient attendues. Il a précisé dans Le Temps que le but n’était pas de concurrencer directement des plateformes comme ChatGPT, mais de bâtir une base technologique solide plutôt qu’une interface utilisateur complète. Il a également rappelé que les connaissances du modèle s’arrêtent début 2024.

Les équipes derrière Apertus envisagent ce lancement comme un fondement sur lequel sera construite une infrastructure évolutive. Des mises à jour régulières sont prévues, ainsi que des déclinaisons spécialisées adaptées aux secteurs juridique, éducatif ou médical. Ce développement collaboratif vise à fédérer acteurs de la recherche et partenaires économiques autour d’une solution ouverte et souveraine.