top of page

IA, sécurité et confiance : ce que nous disent les Français

  • La rédaction
  • il y a 2 jours
  • 4 min de lecture

Par Jean-Philippe Delbonnel, Président de l’Institut Quorum


La sécurité publique demeure une priorité pour les collectivités locales, mais sa mise en œuvre suscite aujourd’hui des débats renouvelés, notamment autour de l’usage de l’intelligence artificielle dans les systèmes de vidéoprotection. L’Institut Quorum a réalisé, pour la société Orasio, une enquête nationale auprès de 3 000 Français représentatifs de la population adulte. Ses résultats témoignent d’une opinion à la fois ouverte à l’innovation et soucieuse de l’encadrement démocratique de ces outils.


Lorsqu’ils évaluent la situation de la sécurité dans leur commune, près de deux tiers des Français se déclarent globalement confiants. Beaucoup estiment que la situation est maîtrisée, tout en reconnaissant l’importance d’un renforcement préventif. Une part non négligeable de la population, environ un tiers, exprime toutefois une inquiétude réelle, qui se traduit par une attente de mesures concrètes et visibles de la part des autorités locales.


Dans ce contexte, la vidéoprotection « classique » ne fait plus débat : elle est massivement acceptée. Neuf Français sur dix se déclarent favorables à la présence de caméras dans l’espace public. L’installation de dispositifs de captation d’image s’est banalisée, au point d’être perçue comme un élément normal de la vie urbaine et comme un outil de tranquillité du quotidien.


L’arrivée de l’intelligence artificielle dans ces dispositifs suscite, elle, une position plus nuancée, mais globalement positive. Près de deux Français sur trois se disent favorables à l’intégration de l’IA dans la vidéoprotection, à condition que ses usages soient clairement encadrés. Une majorité déclare également qu’elle se sentirait davantage en sécurité dans une ville qui recourt à ces technologies. Néanmoins, cette adhésion ne signifie pas liberté totale d’usage : l’IA n’est acceptée que si elle répond à des objectifs précis et proportionnés.


Lorsque l’on explore les situations concrètes dans lesquelles l’IA pourrait être utilisée, une hiérarchie très nette apparaît. Les Français jugent ces outils pleinement légitimes lorsqu’ils servent à prévenir ou résoudre des menaces graves : la prévention d’actes terroristes, l’arrestation d’auteurs de crimes violents, la recherche de personnes disparues ou encore la détection de départs de feu recueillent ainsi des niveaux d’adhésion élevés. Dans ces situations, la technologie est perçue comme un moyen d’agir plus vite et plus efficacement, là où le facteur temps peut être déterminant.


À l’inverse, l’usage de l’IA pour surveiller, contrôler ou sanctionner la vie quotidienne suscite beaucoup plus de réticences. La verbalisation automatique des infractions routières, l’analyse des flux de circulation ou la surveillance de comportements ordinaires sont loin de faire consensus. L’opinion publique établit donc une frontière claire : l’IA doit rester au service de la protection et ne pas glisser vers une logique de contrôle généralisé.


La reconnaissance faciale illustre parfaitement cette distinction. Lorsqu’il s’agit d’identifier une personne disparue, de déclencher une alerte enlèvement, de prévenir un attentat ou d’identifier un auteur de crime grave, une large majorité de Français considère son usage comme légitime. Mais dès que la technologie est envisagée dans des contextes ordinaires – grands événements publics, infractions courantes, surveillance systématique – l’adhésion se réduit fortement. La reconnaissance faciale est acceptée dans l’exceptionnel, refusée dans le quotidien.


Cette exigence s’accompagne d’une attente explicite de contrôle démocratique. Près d’un Français sur deux estime que l’usage de l’IA dans l’espace public doit impérativement être encadré par la loi, et près d’un quart souhaite qu’un accord citoyen, formel ou consultatif, soit recherché. La demande de transparence sur les algorithmes, sur la conservation des données ou sur les autorités responsables participe d’une même logique : la technologie est acceptée, mais seulement si elle est gouvernée.



La question de l’acteur est, à ce titre, décisive. Les Français estiment que l’usage de l’IA en matière de sécurité relève avant tout de l’État et des collectivités. La police nationale, la gendarmerie, ainsi que la police municipale sont largement jugées légitimes pour utiliser ces outils. Les services de renseignement bénéficient eux aussi d’un niveau d’acceptation significatif. En revanche, le recours à ces technologies par des entreprises privées suscite une méfiance très marquée. La sécurité, rappelle l’opinion, n’est pas un marché comme un autre : elle est un bien public.


À l’approche des élections municipales de 2026, les Français expriment le souhait que ce sujet soit abordé clairement dans le débat local. La majorité ne le considère pas comme un thème prioritaire de campagne, mais elle estime qu’il est nécessaire que les candidats formulent leur position, expliquent leur logique d’action et précisent les garanties apportées. Et si un maire décidait d’équiper sa commune d’un système de vidéoprotection utilisant l’IA, près de huit citoyens sur dix accueilleraient favorablement la décision, à condition que les règles d’encadrement soient explicites.


Ce sondage révèle ainsi une opinion publique ni méfiante par principe, ni fascinée par la technologie, mais lucide, structurée et attachée à l’équilibre démocratique. Les Français ne rejettent pas l’IA : ils demandent qu’elle soit utilisée pour protéger, jamais pour surveiller, et qu’elle reste sous contrôle régalien. Pour les collectivités, l’enjeu n’est donc pas simplement d’équiper, mais de choisir, expliquer, encadrer et rendre compte. C’est dans cette transparence que se construit la confiance.


ree

bottom of page