Loi fondamentale sur l'IA adoptée à Taïwan ! Comment réguler la fraude liée à l'IA ? Les sept principes pour l'indemnisation en cas de chômage, à voir en une fois
Taiwan’s Legislative Yuan approved the “Basic Law on Artificial Intelligence” in third reading on December 23, establishing seven core governance principles, with the National Science and Technology Council serving as the central competent authority. Concerning AI scams and deepfake images, high-risk applications must be marked with warning labels and a relief mechanism established; for AI-induced unemployment, the government is responsible for employment counseling. However, civil justice reform organizations criticize this law as akin to a white paper, lacking provisions on citizens’ rights and a list of prohibited AI abuses.
Les sept principes fondamentaux de la loi sur l’IA à Taïwan définissent la ligne de développement
Afin de garantir que le développement technologique ne dévie pas de la bonne voie, la loi fondamentale sur l’IA à Taïwan clarifie les sept principes essentiels que le gouvernement doit suivre lors de la promotion de la recherche, du développement et de l’application de l’IA. Ces principes couvrent tous les aspects, de la sécurité technique à l’équité sociale, formant un cadre de gouvernance relativement complet.
Le principe de durabilité exige de concilier équité sociale et durabilité environnementale, en réduisant la fracture numérique. Cela signifie que le développement de l’IA ne doit pas uniquement servir l’élite technologique ou les zones urbaines, mais aussi bénéficier aux zones rurales et aux groupes vulnérables. Le principe d’autonomie humaine insiste sur le respect des droits de la personnalité et des valeurs culturelles, permettant la supervision humaine, en mettant l’humain au centre. C’est une restriction à la prise de décision autonome totale de l’IA, garantissant que l’humain conserve toujours le contrôle ultime.
Le principe de protection de la vie privée et de gouvernance des données exige de protéger adéquatement les données personnelles et de mettre en œuvre le principe de minimisation des données. Ce principe répond directement aux préoccupations du public concernant la collecte excessive d’informations personnelles par l’IA. Le principe de sécurité exige d’établir des mesures de protection de la cybersécurité pour prévenir les attaques et menaces. Dans un contexte où les systèmes d’IA deviennent de plus en plus complexes, les vulnérabilités en matière de sécurité peuvent entraîner des conséquences catastrophiques.
Les sept principes de gouvernance de la loi sur l’IA à Taïwan
Durabilité : Concilier équité sociale et durabilité environnementale, réduire la fracture numérique
Autonomie humaine : Respecter les droits de la personnalité et les valeurs culturelles, permettre la supervision humaine, mettre l’humain au centre
Protection de la vie privée et gouvernance des données : Protéger adéquatement les données personnelles, appliquer le principe de minimisation des données
Sécurité : Établir des mesures de protection de la cybersécurité, prévenir les attaques et menaces
Transparence et explicabilité : Marquer ou divulguer de manière appropriée les informations générées par l’IA, renforcer la confiance
Équité : Éviter que les algorithmes introduisent des biais ou discriminent certains groupes
Responsabilité : Les développeurs et utilisateurs doivent assumer la gouvernance et la responsabilité sociale correspondantes
Le principe de transparence et d’explicabilité exige de marquer ou divulguer de manière appropriée les résultats générés par l’IA, afin d’accroître la confiance. Cela signifie que le contenu généré par l’IA doit être clairement indiqué pour éviter de tromper le public. Le principe d’équité vise à éviter que les algorithmes introduisent des biais ou discriminent certains groupes. La responsabilité insiste sur le fait que les développeurs et utilisateurs doivent assumer la gouvernance et la responsabilité sociale, fournissant une base légale pour la future attribution de responsabilité en cas d’incidents liés à l’IA.
Les mesures de régulation contre la fraude à l’IA et les deepfakes
Concernant la problématique la plus préoccupante pour le public, la fraude à l’IA, la loi fondamentale sur l’IA à Taïwan propose un cadre de gestion préliminaire. La troisième lecture stipule que le gouvernement doit éviter que l’application de l’IA n’endommage la vie, les biens ou la sécurité des citoyens, et prévenir la publicité mensongère, la désinformation ou la falsification. Bien que cette règle soit dans la bonne direction, les détails concrets de sa mise en œuvre restent à compléter par des lois sectorielles.
Pour les produits ou systèmes d’IA identifiés comme “applications à haut risque”, le gouvernement exige qu’ils soient clairement marqués avec des avertissements ou des notices, et qu’un mécanisme de recours, d’indemnisation ou d’assurance soit mis en place pour faire face aux éventuels dommages. Cette approche de gestion par niveaux, similaire au règlement de l’UE sur l’IA, classe les applications d’IA selon différents niveaux de risque, avec une réglementation plus stricte pour les applications à haut risque.
Mais qu’est-ce qui constitue une “application à haut risque” ? Comment définir la frontière entre fraude à l’IA et utilisation légitime ? Ces questions clés ne sont pas encore clairement précisées dans la loi fondamentale sur l’IA à Taïwan. Par exemple, l’utilisation d’images de célébrités générées par l’IA pour la promotion de produits constitue-t-elle une fraude ? La responsabilité des chatbots IA fournissant des conseils d’investissement trompeurs doit-elle être clarifiée ? Ces scénarios spécifiques nécessitent une législation ou une interprétation judiciaire ultérieure pour être éclaircis.
Le Fonds pour la réforme judiciaire civile critique sévèrement cette situation, estimant que la loi fondamentale sur l’IA à Taïwan manque d’une liste claire d’interdictions. La justice civile appelle le gouvernement à se référer aux normes internationales, en interdisant explicitement l’utilisation de l’IA pour établir des systèmes de notation sociale, prévoir le risque criminel individuel, ou effectuer des analyses émotionnelles et de reconnaissance faciale sans distinction dans l’éducation ou l’application de la loi. Ces clauses d’interdiction concrètes sont essentielles pour prévenir réellement les abus de l’IA.
Que faire en cas de chômage dû à l’IA ? La législation sur l’accompagnement à l’emploi
Concernant les inquiétudes liées au chômage causé par l’IA, la loi fondamentale sur l’IA à Taïwan stipule que le gouvernement doit utiliser activement l’IA pour garantir les droits du travail, réduire le décalage des compétences et assurer la dignité du travail. Pour les personnes devenues sans emploi en raison de l’utilisation de l’IA, le gouvernement a la responsabilité de leur proposer un “accompagnement à l’emploi” en fonction de leurs capacités. C’est la première fois que la législation taïwanaise réglemente explicitement l’impact de l’IA sur le marché du travail.
L’accompagnement à l’emploi peut inclure : des formations professionnelles, des requalifications en compétences IA, des services de mise en relation avec l’emploi, ainsi que des aides financières transitoires. Cependant, la loi fondamentale sur l’IA ne précise pas encore les montants des aides, la durée des formations ou les critères d’éligibilité ; ces détails devront être complétés par le ministère du Travail lors de la rédaction des lois sectorielles.
Le directeur de l’École d’intelligence artificielle de Taïwan, Cai Ming-shun, considère que l’adoption de cette loi marque la transition de la déclaration politique à la mise en place légale de la gouvernance de l’IA à Taïwan. Il souligne que la prochaine étape cruciale sera la rédaction des lois sectorielles, telles que celles du Conseil financier pour la régulation des applications financières, du Ministère de la Santé pour la certification médicale, ou du Ministère de l’Économie pour les normes industrielles.
Cai Ming-shun recommande que l’industrie ne doive pas attendre la rédaction de ces lois sectorielles, mais commence rapidement à inventorier ses applications d’IA internes et à réaliser une auto-évaluation des risques. À l’avenir, chaque conseil d’administration devra compter au moins une personne maîtrisant à la fois la technologie et la réglementation de l’IA, et établir des alliances de données inter-entreprises pour expérimenter conjointement des technologies. Il souligne particulièrement que l’article 10 de la loi fondamentale sur l’IA offre aux PME des ressources concrètes, notamment des subventions, des avantages fiscaux et des incitations à l’investissement, avec une reconnaissance légale.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Loi fondamentale sur l'IA adoptée à Taïwan ! Comment réguler la fraude liée à l'IA ? Les sept principes pour l'indemnisation en cas de chômage, à voir en une fois
Taiwan’s Legislative Yuan approved the “Basic Law on Artificial Intelligence” in third reading on December 23, establishing seven core governance principles, with the National Science and Technology Council serving as the central competent authority. Concerning AI scams and deepfake images, high-risk applications must be marked with warning labels and a relief mechanism established; for AI-induced unemployment, the government is responsible for employment counseling. However, civil justice reform organizations criticize this law as akin to a white paper, lacking provisions on citizens’ rights and a list of prohibited AI abuses.
Les sept principes fondamentaux de la loi sur l’IA à Taïwan définissent la ligne de développement
Afin de garantir que le développement technologique ne dévie pas de la bonne voie, la loi fondamentale sur l’IA à Taïwan clarifie les sept principes essentiels que le gouvernement doit suivre lors de la promotion de la recherche, du développement et de l’application de l’IA. Ces principes couvrent tous les aspects, de la sécurité technique à l’équité sociale, formant un cadre de gouvernance relativement complet.
Le principe de durabilité exige de concilier équité sociale et durabilité environnementale, en réduisant la fracture numérique. Cela signifie que le développement de l’IA ne doit pas uniquement servir l’élite technologique ou les zones urbaines, mais aussi bénéficier aux zones rurales et aux groupes vulnérables. Le principe d’autonomie humaine insiste sur le respect des droits de la personnalité et des valeurs culturelles, permettant la supervision humaine, en mettant l’humain au centre. C’est une restriction à la prise de décision autonome totale de l’IA, garantissant que l’humain conserve toujours le contrôle ultime.
Le principe de protection de la vie privée et de gouvernance des données exige de protéger adéquatement les données personnelles et de mettre en œuvre le principe de minimisation des données. Ce principe répond directement aux préoccupations du public concernant la collecte excessive d’informations personnelles par l’IA. Le principe de sécurité exige d’établir des mesures de protection de la cybersécurité pour prévenir les attaques et menaces. Dans un contexte où les systèmes d’IA deviennent de plus en plus complexes, les vulnérabilités en matière de sécurité peuvent entraîner des conséquences catastrophiques.
Les sept principes de gouvernance de la loi sur l’IA à Taïwan
Durabilité : Concilier équité sociale et durabilité environnementale, réduire la fracture numérique
Autonomie humaine : Respecter les droits de la personnalité et les valeurs culturelles, permettre la supervision humaine, mettre l’humain au centre
Protection de la vie privée et gouvernance des données : Protéger adéquatement les données personnelles, appliquer le principe de minimisation des données
Sécurité : Établir des mesures de protection de la cybersécurité, prévenir les attaques et menaces
Transparence et explicabilité : Marquer ou divulguer de manière appropriée les informations générées par l’IA, renforcer la confiance
Équité : Éviter que les algorithmes introduisent des biais ou discriminent certains groupes
Responsabilité : Les développeurs et utilisateurs doivent assumer la gouvernance et la responsabilité sociale correspondantes
Le principe de transparence et d’explicabilité exige de marquer ou divulguer de manière appropriée les résultats générés par l’IA, afin d’accroître la confiance. Cela signifie que le contenu généré par l’IA doit être clairement indiqué pour éviter de tromper le public. Le principe d’équité vise à éviter que les algorithmes introduisent des biais ou discriminent certains groupes. La responsabilité insiste sur le fait que les développeurs et utilisateurs doivent assumer la gouvernance et la responsabilité sociale, fournissant une base légale pour la future attribution de responsabilité en cas d’incidents liés à l’IA.
Les mesures de régulation contre la fraude à l’IA et les deepfakes
Concernant la problématique la plus préoccupante pour le public, la fraude à l’IA, la loi fondamentale sur l’IA à Taïwan propose un cadre de gestion préliminaire. La troisième lecture stipule que le gouvernement doit éviter que l’application de l’IA n’endommage la vie, les biens ou la sécurité des citoyens, et prévenir la publicité mensongère, la désinformation ou la falsification. Bien que cette règle soit dans la bonne direction, les détails concrets de sa mise en œuvre restent à compléter par des lois sectorielles.
Pour les produits ou systèmes d’IA identifiés comme “applications à haut risque”, le gouvernement exige qu’ils soient clairement marqués avec des avertissements ou des notices, et qu’un mécanisme de recours, d’indemnisation ou d’assurance soit mis en place pour faire face aux éventuels dommages. Cette approche de gestion par niveaux, similaire au règlement de l’UE sur l’IA, classe les applications d’IA selon différents niveaux de risque, avec une réglementation plus stricte pour les applications à haut risque.
Mais qu’est-ce qui constitue une “application à haut risque” ? Comment définir la frontière entre fraude à l’IA et utilisation légitime ? Ces questions clés ne sont pas encore clairement précisées dans la loi fondamentale sur l’IA à Taïwan. Par exemple, l’utilisation d’images de célébrités générées par l’IA pour la promotion de produits constitue-t-elle une fraude ? La responsabilité des chatbots IA fournissant des conseils d’investissement trompeurs doit-elle être clarifiée ? Ces scénarios spécifiques nécessitent une législation ou une interprétation judiciaire ultérieure pour être éclaircis.
Le Fonds pour la réforme judiciaire civile critique sévèrement cette situation, estimant que la loi fondamentale sur l’IA à Taïwan manque d’une liste claire d’interdictions. La justice civile appelle le gouvernement à se référer aux normes internationales, en interdisant explicitement l’utilisation de l’IA pour établir des systèmes de notation sociale, prévoir le risque criminel individuel, ou effectuer des analyses émotionnelles et de reconnaissance faciale sans distinction dans l’éducation ou l’application de la loi. Ces clauses d’interdiction concrètes sont essentielles pour prévenir réellement les abus de l’IA.
Que faire en cas de chômage dû à l’IA ? La législation sur l’accompagnement à l’emploi
Concernant les inquiétudes liées au chômage causé par l’IA, la loi fondamentale sur l’IA à Taïwan stipule que le gouvernement doit utiliser activement l’IA pour garantir les droits du travail, réduire le décalage des compétences et assurer la dignité du travail. Pour les personnes devenues sans emploi en raison de l’utilisation de l’IA, le gouvernement a la responsabilité de leur proposer un “accompagnement à l’emploi” en fonction de leurs capacités. C’est la première fois que la législation taïwanaise réglemente explicitement l’impact de l’IA sur le marché du travail.
L’accompagnement à l’emploi peut inclure : des formations professionnelles, des requalifications en compétences IA, des services de mise en relation avec l’emploi, ainsi que des aides financières transitoires. Cependant, la loi fondamentale sur l’IA ne précise pas encore les montants des aides, la durée des formations ou les critères d’éligibilité ; ces détails devront être complétés par le ministère du Travail lors de la rédaction des lois sectorielles.
Le directeur de l’École d’intelligence artificielle de Taïwan, Cai Ming-shun, considère que l’adoption de cette loi marque la transition de la déclaration politique à la mise en place légale de la gouvernance de l’IA à Taïwan. Il souligne que la prochaine étape cruciale sera la rédaction des lois sectorielles, telles que celles du Conseil financier pour la régulation des applications financières, du Ministère de la Santé pour la certification médicale, ou du Ministère de l’Économie pour les normes industrielles.
Cai Ming-shun recommande que l’industrie ne doive pas attendre la rédaction de ces lois sectorielles, mais commence rapidement à inventorier ses applications d’IA internes et à réaliser une auto-évaluation des risques. À l’avenir, chaque conseil d’administration devra compter au moins une personne maîtrisant à la fois la technologie et la réglementation de l’IA, et établir des alliances de données inter-entreprises pour expérimenter conjointement des technologies. Il souligne particulièrement que l’article 10 de la loi fondamentale sur l’IA offre aux PME des ressources concrètes, notamment des subventions, des avantages fiscaux et des incitations à l’investissement, avec une reconnaissance légale.