
Comment utiliser l'IA dans mon quotidien professionnel ?
L'IA est omniprésente et souvent invisible. Elle est utilisée dans les smartphones (aides à la correction, reconnaissance faciale), les réseaux sociaux (algorithmes de recommandation), le shopping en ligne, la navigation GPS et même les opérations bancaires.
L'IA fantôme menace la sécurité
Dans le quotidien professionnel, de nombreux·ses employé·es utilisent déjà l'IA - généralement sans penser que cela pourrait avoir des conséquences, voire des implications juridiques. C'est ce qu'on appelle « l'IA fantôme » et cela peut conduire à de graves failles de sécurité.
En effet, les systèmes d'IA stockent les données et continuent à les utiliser. Si des informations confidentielles sont entrées dans des outils non sécurisés, elles peuvent être transmises et réutilisées. Cela enfreint la loi sur la protection des données et peut entraîner des dommages à la réputation, ainsi que des conséquences juridiques.
Que dit la loi sur l'IA?
Dans l'UE, la règlementation sur l’IA est entrée en vigueur en août 2024, et nombre d’entreprises suisses s'y réfèrent déjà. La loi vise à introduire des applications d'IA de manière sûre et éthiquement responsable dans la pratique, ainsi qu'à protéger les droits fondamentaux des citoyen·nes.
La règlementation régule les systèmes d'IA selon une approche basée sur les risques : les applications interdites comme le « scoring social » éthiquement discutable (collecte d'évaluations et de comportements des personnes) sont interdites, les systèmes à haut risque (p. ex. justice ou santé) sont soumis à des exigences strictes, tandis que les risques limités et minimes n'ont que des obligations de transparence, voire aucune obligation. Les entreprises doivent documenter soigneusement l'IA à haut risque et identifier l'IA générative. Des amendes élevées sont prévues en cas de violation de cet acte.
L'IA en Suisse
Fin mars 2025, la Suisse a signé la Convention du Conseil de l'Europe sur l'intelligence artificielle et les droits de l'homme, la démocratie et l'État de droit. Notre pays souhaite ainsi ratifier la Convention et l'intégrer dans le droit suisse. L'objectif est de promouvoir l'innovation tout en minimisant les risques. Un projet de consultation est attendu pour fin 2026.
Comment utiliser l'IA correctement d'un point de vue juridique
En Suisse, il n'existe pas encore de réglementations spécifiques juridiquement contraignantes sur la façon dont les outils d'IA peuvent ou doivent être utilisés dans le quotidien professionnel. Cependant, les employé·es et les entreprises doivent également se conformer à la loi sur la protection des données en vigueur (LPD) lorsqu'ils utilisent l'IA. La LPD s'applique directement au traitement des données assisté par l'IA.
Qu'est-ce que l'IA fantôme ?
L'IA fantôme désigne les applications d'intelligence artificielle qui sont introduites et utilisées dans une entreprise à l'insu ou sans le consentement explicite du service informatique.
La LPD régit la protection des données personnelles et leur traitement. Elle garantit la protection de la vie privée des personnes et fixe des exigences pour les entreprises et les autorités concernant le traitement des données.
Dans la pratique, cela signifie :
- Les employé·es ne doivent pas entrer de données sensibles ou personnelles dans les outils d'IA.
- Comme les entreprises doivent assurer la santé et la sécurité de leurs employé·es, cela inclut également la protection fondamentale contre une surveillance et un contrôle excessifs par les outils d'IA.
- En outre, les employeurs sont tenus d'informer leurs employé·es s'ils utilisent exceptionnellement l'IA dans le cadre autorisé pour analyser ou surveiller le travail, et de demander le consentement des employé·es lorsque cela est nécessaire.
- Les employé·es peuvent à tout moment demander à leur employeur·euse quelles données les concernant sont traitées et dans quel but. Seules les données nécessaires sur les employé·es peuvent être collectées et traitées, et uniquement aux fins indiquées. Les données collectées doivent être protégées par l'employeur·euse grâce à des mesures techniques et organisationnelles.
Investir dans une IA sûre
Les entreprises ont tout intérêt à établir des directives opérationnelles et à former leurs employé·es aux dangers potentiels liés à l'utilisation de l'IA. Pour les entreprises de l'UE, cela est déjà obligatoire depuis le 2 février 2025. Une autre possibilité est que les entreprises investissent dans des modèles d'IA sécurisés.
Parlez de ce sujet à vos collègues et supérieur·es si vous constatez que la sensibilisation manque dans votre entreprise. Chez Angestellte Schweiz, vous trouverez une série de cours intéressants (en allemand) pour en savoir plus sur l'utilisation sûre de l'IA dans votre vie professionnelle quotidienne.
Auteur-e
