GenAI les DSI temporisent face aux risques

GenAI : les DSI temporisent face aux risques

L’enthousiasme pour l’IA générative (GenAI) ressemble à une ruée vers l’or numérique. Directions générales et métiers poussent à l’adoption rapide, mais les directions des systèmes d’information (DSI) s’efforcent de freiner cet élan pour maîtriser les risques associés.

Les risques immédiats : le Shadow IA

Le Shadow IA, ou usage non autorisé de la GenAI via des comptes personnels, constitue l’un des principaux défis pour les DSI. Selon une étude, près d’un utilisateur sur deux continue d’utiliser des accès personnels à des outils de GenAI dans le cadre professionnel.

« Aujourd’hui, il n’est pas possible d’éviter le sujet de l’IA générative », constate Lionel Chaine, DSI de Bpifrance.
« Dès son émergence, ce sujet a été porté au niveau de la direction générale », ajoute Nicolas Siegler, DGA adjoint et DSI de la Maif.

Malgré un engouement fort, le retour sur investissement reste encore flou. Une étude du MIT (The GenAI Divide: State of AI in Business 2025) révèle que 95 % des entreprises ne constatent aucun ROI mesurable. Les bénéfices apparaissent surtout après la mise à l’échelle des cas d’usage pertinents.

Les DSI face à l’emballement

Même sans ROI immédiat, la quasi-totalité des organisations teste massivement ces technologies. L’utilisation banalisée de ChatGPT et autres LLM par le grand public encourage les salariés à contourner les restrictions, souvent via smartphone ou abonnements personnels.

Les DSI doivent donc équilibrer adoption et contrôle, en gérant :

  • La réglementation et les obligations légales
  • Les hallucinations générées par les IA
  • L’exposition des données sensibles
  • Les impacts RH et environnementaux
  • Les risques budgétaires

Le Cigref a publié plusieurs guides, dont un dédié à la mise en œuvre pratique de l’AI Act européen, pour aider les DSI à encadrer ces usages.

Gouvernance et priorisation des cas d’usage

Pour Lionel Chaine, « sur 200 cas d’usage proposés par les métiers, environ 20 ont été mis en production ». La gouvernance est essentielle pour bénéficier des avantages tout en limitant les risques.

Nicolas Siegler explique que la Maif a créé un conseil de surveillance “Numérique éthique” pour évaluer les impacts RH, environnementaux et éthiques des usages de l’IA générative.

Évaluer le retour sur investissement

Le ROI de la GenAI varie selon le type d’usage :

  • IA intégrée aux processus métiers : ROI relativement simple à mesurer, mais la décision finale dépend d’autres facteurs.
  • IA horizontale (génération de comptes rendus, résumés, réponses techniques) : études estiment un gain de temps quotidien moyen de 50 minutes par utilisateur.

Certaines organisations privilégient le soulagement de la charge de travail plutôt que le gain direct, comme à Lorient avec un chatbot assistant les agents d’accueil.

Sensibilisation plutôt qu’interdiction

Face à des solutions payantes parfois inaccessibles pour tous, certaines organisations misent sur la sensibilisation :

  • Crosscall : tout usage non autorisé est interdit, mais les flux ne sont pas bloqués, afin de responsabiliser les utilisateurs.
  • Maif : accès sécurisé à Copilot web, avec suivi des flux et assistance aux prompts.
  • Agglomération de Lorient : note interne diffusée aux agents pour informer des opportunités et risques.

La sensibilisation vise aussi à éviter que des informations sensibles soient partagées via des IA publiques.

Surveiller les hallucinations et les risques critiques

L’IA générative n’est pas parfaite et génère parfois des hallucinations. Le Cigref recommande de définir clairement les rôles et responsabilités pour les cas critiques :

  • Bpifrance : trois niveaux d’agents IA selon l’accès aux données (web, hybride, interne).
  • Maif : dispositif “Maintien en Conditions Intelligentes” pour contrôler les chatbots expérimentaux et prévenir les dérapages.

Cette surveillance permet de limiter les risques cyber et de protéger les données sensibles.

Cadre réglementaire et cybersécurité

L’AI Act impose transparence et suivi des données. Les DSI doivent également gérer :

  • La confidentialité et la sécurité des informations
  • Les flux environnementaux et énergétiques des IA
  • La prévention des injections de prompts malveillants

« À ce jour, il n’existe pas d’équivalent d’un firewall pour les IA génératives », rappelle Lionel Chaine.
Nicolas Siegler ajoute que la Maif surveille le dark web pour vérifier l’absence de fuite de données.

L’appréhension des risques doit donc être globale, intégrant confidentialité, sécurité, hallucinations et propriété intellectuelle.

Conclusion

Les DSI jouent un rôle d’équilibriste : suivre l’innovation tout en limitant les risques. La réussite repose sur une gouvernance claire, une sensibilisation active et une surveillance continue, permettant d’exploiter le potentiel de la GenAI sans compromettre la sécurité, l’éthique et la conformité.

Consultez notre page « Actualités » pour découvrir les autres informations à ne pas manquer.

Source de l’actu : Le Monde Informatique