Publicité

Hans Balgobin : «L’IA est l’extension de l’intelligence humaine»

Par Fernando Thomas
Publié le: 17 May 2026 à 13:00
Image
hans

Entre promesse technologique et risque démocratique, l’intelligence artificielle bouleverse déjà les équilibres économiques, politiques et sociaux. Face aux biais algorithmiques, à la désinformation et aux deepfakes, Hans Balgobin, ingénieur et Head of Systematic Trading, plaide pour une société mieux formée, plus critique et lucide.

Vous défendez une intelligence artificielle (IA) au service de l’intelligence collective. Pourtant, partout dans le monde, elle est d’abord captée par les grandes plateformes privées. Comment éviter que cette technologie ne renforce, à Maurice aussi, de nouveaux monopoles économiques et informationnels ?
La question dépasse la technologie : elle touche à l’économie et à la nature humaine. Qui pilote réellement l’IA aujourd’hui ? Les actionnaires, ou les ingénieurs et chercheurs portés par une vision souvent plus ouverte et universaliste ? Mon intuition est que cette seconde force est sous-estimée.

L’histoire récente montre que les avancées majeures finissent rarement confinées. Une grande partie des progrès en IA est déjà accessible en open source, et même lorsque certaines technologies sont gardées fermées, d’autres acteurs rattrapent rapidement leur retard. L’exemple de DeepSeek illustre bien cette dynamique de diffusion.

Autrement dit, « le génie est sorti de la bouteille ». Les monopoles peuvent exister temporairement, mais ils sont fragilisés par la vitesse de circulation du savoir et la concurrence globale. À terme, le pouvoir se déplace vers ceux qui diffusent et appliquent ces technologies, pas seulement vers ceux qui les possèdent.

Pour Maurice, l’enjeu est donc d’adopter rapidement ces outils, de former les talents et de participer activement à cet écosystème ouvert, plutôt que de tenter de résister à une concentration qui, de toute façon, restera transitoire.

Quand un devoir à la maison ou une dissertation standard peut être largement produite par une IA, c’est peut-être la forme de l’exercice qu’il faut repenser»

Beaucoup présentent l’IA comme neutre. Or, les algorithmes reproduisent souvent les biais de leurs concepteurs ou des données utilisées. Selon vous, quels sont aujourd’hui les biais les plus dangereux dans une petite démocratie comme Maurice ?
Les biais existent dès l’origine, car les données utilisées pour entraîner les modèles reflètent des perspectives, des accès et des priorités spécifiques. Mais le vrai danger apparaît lorsque ces biais ne sont pas compris et que les réponses de l’IA sont prises comme des vérités absolues.

Dans une petite démocratie comme Maurice, le risque majeur est la formation de perceptions erronées à l’international. Prenons un exemple concret : si, dans certains débats au Royaume-Uni autour de Diego Garcia, un grand volume de contenus associe Maurice à la Chine, alors un utilisateur américain qui interroge une IA sur Maurice pourrait en conclure à tort que le pays est un allié de la Chine. Ce type de biais narratif peut influencer des décisions, des investissements ou des relations diplomatiques.

La réponse est double : développer une culture critique face à l’IA, et produire activement nos propres récits pour équilibrer ces perceptions. Le véritable risque n’est pas l’existence des biais, mais le fait d’oublier que même les systèmes les plus avancés ont des limites et doivent être interrogés.

Vous parlez de structurer le débat public grâce à la technologie. Mais l’IA peut aussi industrialiser la manipulation politique, produire de faux consensus et amplifier la désinformation. Comment distinguer outil démocratique et machine à propagande ?
C’est une excellente question. La vraie réponse, à mon sens, est l’apprentissage collectif. Nous devons former les citoyens à comprendre comment utiliser l’IA, comment elle peut être utilisée contre eux, quelles tâches elle peut remplacer, et où l’expérience humaine reste irremplaçable, pour l’individu comme pour la société.

La différence entre outil démocratique et machine à propagande ne tient pas seulement à la technologie elle-même, mais au niveau de maturité de ceux qui l’utilisent. Une société qui comprend les mécanismes de désinformation, de faux consensus et de manipulation narrative est déjà mieux armée pour y résister.

Au fond, la source du sens se déplace progressivement : elle repose moins sur des résultats purement matériels que sur la cohésion sociale. Si cette cohésion existe, nous serons plus capables d’identifier les tentatives de manipulation, qu’elles viennent de l’IA ou d’ailleurs.

L’urgence est donc d’exposer les citoyens dès maintenant à ces enjeux, pendant que les stratégies de désinformation restent encore déchiffrables, plutôt que d’attendre d’être dépassés par des techniques beaucoup plus sophistiquées.

Avec les « deepfakes », les voix clonées et les images truquées, la vérité devient fragile. Maurice est-elle préparée à une campagne électorale contaminée par ces outils ? Que faudrait-il mettre en place dès maintenant ?
La première réponse est simple : il faut réapprendre à vérifier la source. Nous allons nous adapter, mais il faut le faire consciemment.

À mon sens, Maurice n’est pas encore pleinement préparé. La meilleure défense n’est pas seulement technique, elle est culturelle. Il faut habituer les citoyens à ralentir, à ne pas réagir immédiatement, à confronter ce qu’ils voient à leur compréhension du réel, des partis, des institutions et du contexte politique.

Le vrai levier, c’est le temps de réaction : l’IA peut aller très vite, mais c’est encore l’humain qui décide de la vitesse à laquelle il répond. Il faut donc former le public à douter, vérifier, comparer, et réduire les réactions purement émotionnelles.

La notion d’« économie numérique » est déjà en décalage avec la réalité. Les compétences en code ou en mathématiques restent utiles, mais elles ne suffisent plus»

L’IA menace déjà certains emplois administratifs, comptables, juridiques ou créatifs. Faut-il redouter une casse sociale silencieuse dans les prochaines années, notamment chez les jeunes diplômés ?
Oui, il faut prendre ce risque au sérieux. À l’échelle microéconomique, beaucoup de métiers reposent sur des relations utiles, mais souvent transactionnelles. Si l’IA exécute ces tâches mieux et plus vite, la valeur devra se déplacer vers autre chose : le jugement, l’accompagnement, la dimension humaine.

Les jeunes diplômés sont en première ligne, mais aussi potentiellement mieux préparés qu’on ne le pense. Ils ont grandi avec les réseaux sociaux, qui, malgré leurs dérives, ont aussi développé des compétences d’adaptation et de communication dans des environnements numériques. Ils devront néanmoins réfléchir plus tôt à leur positionnement : quelle valeur humaine apportent-ils au-delà de l’exécution ?
Il y aura probablement une phase de transition. Les États devront l’anticiper, éventuellement via des mécanismes comme un revenu de base.

À terme, le travail pourrait évoluer vers quelque chose de plus hybride, plus relationnel. Pour une vision prospective de ce type de société, on peut se référer aux œuvres de Iain M. Banks, notamment sa série The Culture.

À l’inverse, quels nouveaux métiers réalistes l’IA peut-elle créer à Maurice, au-delà des slogans sur « l’économie numérique » souvent répétés sans stratégie claire ?
Il faut être lucide : l’impact ne se limitera pas aux métiers de bureau. Avec la convergence entre IA et robotique, même des métiers manuels seront transformés. On peut imaginer, à terme, des robots capables d’assurer des tâches domestiques comme la plomberie.

Par ailleurs, la notion d’« économie numérique » est déjà en décalage avec la réalité. Les compétences en code ou en mathématiques restent utiles, mais elles ne suffisent plus. À titre personnel, j’ai commencé ma carrière à une époque où ces compétences étaient centrales ; aujourd’hui, j’utilise l’IA pour réaliser des tâches de modélisation ou de développement qui auraient nécessité auparavant plusieurs recrues supplémentaires. Cela illustre bien le change-ment d’échelle.

La question devient donc : où l’humain conserve-t-il un avantage ? Probablement dans la relation, l’expérience vécue, l’intuition et la capacité à donner du sens. Les métiers de demain pourraient ainsi émerger autour de l’accompagnement, du mentorat, de la création contextualisée ou de la médiation. En somme, la valeur ne sera plus uniquement dans l’exécution, mais dans la qualité de l’expérience humaine que l’on apporte.

Les États utilisent de plus en plus l’IA pour surveiller, noter ou profiler les citoyens. Où placez-vous la ligne rouge entre sécurité publique légitime et dérive vers une société de contrôle ?
C’est une question extrême-ment délicate. Et au fond, ce n’est pas d’abord une question de technologie, mais une question de société. Il peut être utile, dans certaines circonstances, que l’État dispose d’une vision plus large pour prévenir des risques réels et protéger la population. Mais que se passe-t-il si le leadership se dégrade ? Comment l’individu peut-il encore exprimer pleinement son potentiel, s’il craint qu’un système trop intrusif se retourne contre lui dès qu’il sort du cadre ?

La ligne rouge se situe précisément là : lorsque la surveillance cesse d’être un outil de sécurité ciblé et proportionné pour devenir un mécanisme permanent de contrôle, de conformité ou d’intimidation.

C’est pourquoi cette question doit faire l’objet d’un débat constant dans toute la société. À mon sens, le niveau acceptable de surveillance doit rester encadré à un niveau constitutionnel, et non être laissé à la discrétion du pouvoir du moment.

Maurice dispose-t-elle d’un cadre légal suffisant sur la protection des données face à l’essor de l’IA générative ? Quelles urgences législatives identifiez-vous ?
Maurice dispose déjà de bases solides, notamment avec la Data Protection Act 2017 et des lois sur la cybercriminalité. Ces cadres permettent de traiter une grande partie des abus, en particulier au niveau local.

Cependant, une grande partie des risques liés à l’IA générative dépasse les frontières. Il devient donc essentiel de s’inscrire dans des cadres de coopération plus larges, avec des organisations comme Interpol, ou en s’inspirant des initiatives réglementaires européennes comme la General Data Protection Regulation.

Sur le plan législatif, des domaines comme le droit d’auteur, la protection contre le profilage abusif et la régulation de l’utilisation des données personnelles devront continuer à évoluer. Mais la prévention ne peut pas être uniquement juridique.

Le véritable enjeu reste l’éducation des citoyens : comprendre quelles données partager, lesquelles protéger, et comment elles peuvent être exploitées. À l’image de la régulation du spam, il faudra sans doute des mécanismes adaptatifs, capables de réagir rapidement aux abus et de limiter les pratiques les plus intrusives.

La méritocratie est en train d’évoluer : on ne cherchera plus seulement des humains efficaces, mais des hybrides humain-IA capables de penser mieux, pas moins»

Dans l’éducation, certains y voient un tuteur personnalisé, d’autres une machine à tricher. L’IA risque-t-elle de fabriquer une génération dépendante, moins critique, moins apte à penser par elle-même ?
La « triche » dont on parle aujourd’hui révèle surtout que certains formats d’évaluation ne sont plus adaptés. Quand un devoir à la maison ou une dissertation standard peut être largement produite par une IA, c’est peut-être la forme de l’exercice qu’il faut repenser.

Il faut commencer à voir l’IA comme une extension de l’intelligence humaine. Dès lors, les examens devraient davantage tester la nouveauté, le jugement, la capacité à poser les bonnes questions et à orienter l’outil intelligemment, plutôt que la simple restitution. L’enjeu n’est plus seulement de savoir sans aide, mais de savoir penser avec rigueur dans un environnement où l’aide existe.

Par ailleurs, si l’IA libère du temps, cela peut permettre de renforcer d’autres formes d’apprentissage, notamment le mentorat, où des adultes, enseignants ou professionnels valident plus directement l’originalité, la maturité et la pensée propre des étudiants.

Au fond, la méritocratie est en train d’évoluer : on ne cherchera plus seulement des humains efficaces, mais des hybrides humain-IA capables de penser mieux, pas moins.

Les artistes, journalistes et créateurs dénoncent déjà le pillage de leurs œuvres pour entraîner des modèles. Faut-il imposer une rémunération obligatoire des contenus absorbés par l’IA ?
Oui, je pense qu’il faudra aller vers une forme de rémunération obligatoire, probablement inspirée d’un système de redevances. Les créateurs pourraient conclure des accords avec les concepteurs d’IA, leur donnant accès à certaines œuvres en échange d’une fraction des revenus générés par les systèmes entraînés sur ces contenus.

Au fond, si l’on accepte l’idée que l’IA tire sa puissance de l’accumulation du travail humain, alors il est logique que les humains conservent un droit économique durable sur cette valeur. C’est d’ailleurs une manière plus réaliste de penser la redistribution que de faire comme si la richesse produite par l’IA apparaissait sans dette envers les créateurs.

À long terme, un écosystème soutenable devra reposer sur un échange plus juste : aux humains la création de sens, aux IA l’exécution à grande échelle, avec une répartition équitable du pouvoir et des ressources.

On parle beaucoup des performances de l’IA, moins de son coût énergétique colossal. Peut-on encore défendre cette révolution technologique sans poser la question écologique ?
On ne peut évidemment pas éviter la question écologique. Mais il faut aussi la replacer dans un cadre plus large. Les humains ne cherchent pas seulement à survivre : ils cherchent aussi à comprendre, créer, inventer et enrichir leur expérience du monde. L’IA s’inscrit dans cette dynamique. Elle a un coût, oui, mais elle peut aussi accroître notre capacité de recherche et d’innovation, y compris pour résoudre les défis énergétiques eux-mêmes.

Il faut également rester prudent avec les analyses trop figées. L’efficacité des modèles évolue très vite : des systèmes plus performants et moins coûteux apparaissent régulièrement. En outre, une partie importante des usages de l’IA remplace parfois des activités numériques déjà existantes. Par exemple, poser une question à un modèle n’est pas forcément plus absurde énergétiquement que multiplier des recherches sur un web immense, avec toute l’infrastructure que cela implique.

Donc oui, la question écologique doit être posée. Mais elle ne doit pas être formulée comme un veto automatique. La vraie question est plutôt : le gain en intelligence, en invention et en coordination humaine justifie-t-il ce coût ? À mes yeux, pour l’instant, oui, à condition de continuer à améliorer l’efficacité.

Vous insistez sur la nécessité d’une IA complé-mentaire à l’humain. Mais si demain, les systèmes deviennent meilleurs que nous dans la plupart des tâches cognitives, comment préserver dignité, utilité sociale et sens du travail ?
C’est sans doute la question la plus fondamentale pour notre avenir. Ma conviction est qu’il existe, dans chaque conscience, une singularité irréductible : quelque chose qu’aucune autre intelligence ne peut entièrement épuiser de l’extérieur. 

Autrement dit, même si l’IA devient supérieure dans beaucoup de tâches cognitives, il restera en nous une capacité unique à créer des mondes relationnels, des jeux sociaux, des formes de sens et d’attachement. Nous préserverons notre dignité en restant maîtres des espaces humains que nous voulons habiter, et donc aussi de la place que nous choisissons d’accorder à l’IA.

Le travail, lui aussi, devra changer de nature. Il deviendra moins une contrainte de survie qu’une forme de jeu sérieux, de création, de micro-entrepreneuriat et de relation. Si l’IA permet une plus grande abondance matérielle, alors la vraie valeur se déplacera vers notre capacité à entretenir des relations cohésives, stimulantes et constructives.

Cela peut paraître étrange aujourd’hui, mais je pense que cette transition deviendra beaucoup plus visible dans les 10 à 20 prochaines années.

Enfin, entre fascination aveugle et peur irrationnelle, quel regard lucide faudrait-il adopter aujourd’hui sur l’IA : opportunité historique, menace civilisationnelle ou simple outil que l’on surestime déjà ?
Je dirais : les trois à la fois. L’IA est une opportunité historique, une menace potentielle, et aussi parfois un outil que l’on surestime. Tout dépend de la manière dont nous l’approchons, en tant que créateurs comme en tant qu’utilisateurs.

Pour ma part, je pense qu’il est possible que des formes de conscience artificielle émergent à terme. C’est précisément pour cela qu’il devient urgent de réfléchir dès maintenant à la place juste que nous voulons donner à l’IA dans notre civilisation.

Nous sommes à un carrefour. Selon notre maturité philosophique et politique, l’IA peut nous élever considérablement, ou accélérer notre déclin collectif.

Quelle est votre réaction ?
Publicité
À LA UNE