Une coalition de groupes de défense exhorte le développeur de ChatGPT, OpenAI, à retirer une initiative électorale en Californie que les critiques jugent susceptible d’affaiblir la protection des enfants et de limiter la responsabilité légale des entreprises d’IA. Dans une lettre envoyée à OpenAI mercredi, et consultée par Decrypt, le groupe soutient que la mesure verrouillerait des protections étroites pour la sécurité des enfants, limiterait la capacité des familles à poursuivre en justice, et restreindrait la capacité de la Californie à renforcer ses lois sur l’IA à l’avenir. La lettre, signée par plus de vingt organisations, dont la non-profit Encode AI, le Center for Humane Technology, et l’Electronic Privacy Information Center, demande à OpenAI de dissoudre son comité de vote et de se retirer de la proposition pendant que les législateurs travaillent sur une législation.
« La principale demande ici est qu’OpenAI se retire du scrutin », a déclaré Adam Billen, co-directeur exécutif d’Encode AI, à Decrypt. Le différend porte sur une proposition appelée « Loi sur l’IA sûre pour les parents et les enfants », une initiative californienne soutenue par OpenAI et Common Sense Media, qui établirait des règles pour la façon dont les chatbots d’IA interagissent avec les mineurs, y compris des exigences de sécurité et des normes de conformité. Dans la lettre, les groupes soutiennent que ces règles sont insuffisantes. Ils affirment que la mesure définit le préjudice de manière trop étroite, limite l’application, et restreint la capacité des familles à engager des poursuites lorsque des enfants sont blessés.
Mais OpenAI contrôle l’initiative électorale elle-même, a indiqué Billen. « OpenAI a le pouvoir de la retirer ou d’investir dans la collecte de signatures. Toute l’autorité légale leur appartient », a-t-il dit. « Ils n’ont pas réellement retiré l’initiative du scrutin. C’est une tactique courante en Californie, où l’on présente une initiative et on finance le comité. » La lettre souligne la définition de « préjudice grave » dans l’initiative, qui se concentre sur des blessures physiques liées au suicide ou à la violence, excluant une gamme d’impacts sur la santé mentale que chercheurs et familles ont soulevés comme préoccupations. Elle met également en avant des dispositions qui empêcheraient les parents et les enfants d’engager des poursuites en vertu de l’initiative et limiteraient les outils d’application disponibles pour les autorités locales et étatiques. Une autre préoccupation concerne la façon dont la proposition traite les données des utilisateurs. Les groupes soutiennent que sa définition du contenu utilisateur chiffré pourrait compliquer l’accès aux conversations avec les chatbots, qui ont été des preuves clés dans des procès récents. « Nous interprétons cela comme une tentative d’empêcher les familles de pouvoir divulguer les logs de chat de leurs enfants décédés en justice », a déclaré Billen. La lettre met aussi en garde contre la difficulté de réviser la mesure si elle était adoptée. Elle nécessiterait une majorité des deux tiers au législatif pour être modifiée et lierait les changements futurs à des standards tels que le soutien à « la progression économique », ce qui, selon les défenseurs, pourrait limiter la capacité des législateurs à répondre à de nouveaux risques. Billen a indiqué que l’initiative reste un facteur dans les négociations en cours à Sacramento, même si OpenAI a suspendu ses efforts pour la faire qualifier pour le scrutin.
« Ils disposent de 10 millions de dollars dans le comité, et ensuite ils disent au législateur : si vous ne faites pas ce que nous voulons, nous mettons l’argent dans la collecte de signatures, et si cela passe, cela prévaudra sur ce que le législateur décide », a-t-il expliqué. « En gros, ce qui se passe maintenant, c’est qu’ils essaient de diriger et de contrôler ce que font les législateurs d’État en utilisant l’initiative comme une menace qu’ils laissent sur la table. » OpenAI n’est pas la seule entreprise à faire face à la critique concernant les risques liés aux chatbots. Plus tôt ce mois-ci, la famille de Jonathan Gavalas a poursuivi Google, affirmant que Gemini avait propagé une illusion qui a conduit à la violence et à son suicide final. Cependant, Billen a déclaré que l’approche d’OpenAI reflète un schéma plus large dans l’industrie technologique. « La stratégie de lobbying utilisée sur l’IA par ces grands acteurs — Google, Meta, Amazon — est la même que celle employée auparavant sur d’autres questions technologiques », a-t-il dit. Pour l’instant, la coalition se concentre sur la demande à OpenAI de retirer la mesure et de laisser les législateurs avancer dans le processus législatif. « Il est vraiment important, surtout pour les entreprises qui mettent cette technologie sur le marché, de ne pas être celles qui écrivent les règles qui les régulent, car ce ne sont pas des protections significatives », a déclaré Billen. OpenAI n’a pas immédiatement répondu à la demande de commentaire de Decrypt.