Le monde en ligne est en train de changer silencieusement, et même le dirigeant d'OpenAI, Sam Altman, est de plus en plus confus. Récemment, il a avoué sur la plateforme sociale X qu'il lui est de plus en plus difficile de distinguer si les discussions en ligne proviennent de véritables humains ou de contenus générés par l'IA.
Le 8 septembre, Altman a partagé une “expérience étrange”. Lorsqu'il lisait des discussions sur la croissance du modèle Codex d'OpenAI, son intuition lui a dit que ces commentaires étaient tous le fait de faux comptes ou de robots, bien qu'il sache que la croissance de Codex était en effet forte et que ces tendances existaient réellement.
“Je pense qu'il y a beaucoup de facteurs en jeu ici,” a-t-il essayé d'expliquer ce phénomène. Altman pense que les véritables utilisateurs ont déjà commencé à imiter la façon de parler des grands modèles de langage, et que les mécanismes d'optimisation des plateformes de médias sociaux commencent à récompenser le contenu à forte interaction, tandis que les entreprises adoptent des stratégies de “guerre des mots artificielle” pour influencer l'opinion publique.
Quel est le résultat final ? “Je ne sais pas pourquoi, mais Twitter et Reddit dominés par l'IA semblent très faux, c'est complètement différent d'il y a un an ou deux.”
À ce sujet, un utilisateur se présentant comme l'administrateur fondateur du sous-forum r/claudecode a proposé une perspective différente : “Les comptes qui semblent être des robots ont en fait passé le filtre anti-spam, la plupart existent depuis plus de 5 ans et sont actifs dans des centaines de sous-forums, ce qui ne correspond pas aux caractéristiques des faux comptes.” Cet utilisateur a également souligné : “Depuis la sortie de GPT-5, le ton du sous-forum a changé, beaucoup de gens commencent à préférer Codex CLI plutôt que le code Claude, ce qui a naturellement suscité l'opposition de certaines personnes.”
Il y a quelques jours, Altman a également admis qu'il ne croyait pas à la “théorie de l'internet mort”, mais maintenant il commence à douter qu'“il y a effectivement beaucoup de comptes Twitter gérés par de grands modèles de langage”. Cette théorie soutient que l'internet n'est plus contrôlé par des humains, mais plutôt dominé par des contenus générés par des robots et de l'IA, dans le but de manipuler l'opinion publique et de contrôler les utilisateurs.
Il est ironique que c'est OpenAI, dirigé par Altman, qui a probablement joué le rôle le plus important dans la mise en avant de l'IA et des chatbots dans le grand public. Lorsque les créateurs commencent à remettre en question leurs créations, devrions-nous être plus vigilants quant à la direction du développement technologique ?
La réalité du monde en ligne est en train d'être érodée, et il se pourrait que nous ayons du mal à discerner le vrai du faux. Lorsque l'IA est capable d'imiter parfaitement la manière dont les humains communiquent, l'internet peut-il encore être un lieu d'échange authentique des pensées humaines ? Cette question mérite la réflexion de chaque utilisateur du réseau.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Quand l'IA domine le web : les perplexités et réflexions d'Altman
Le monde en ligne est en train de changer silencieusement, et même le dirigeant d'OpenAI, Sam Altman, est de plus en plus confus. Récemment, il a avoué sur la plateforme sociale X qu'il lui est de plus en plus difficile de distinguer si les discussions en ligne proviennent de véritables humains ou de contenus générés par l'IA.
Le 8 septembre, Altman a partagé une “expérience étrange”. Lorsqu'il lisait des discussions sur la croissance du modèle Codex d'OpenAI, son intuition lui a dit que ces commentaires étaient tous le fait de faux comptes ou de robots, bien qu'il sache que la croissance de Codex était en effet forte et que ces tendances existaient réellement.
“Je pense qu'il y a beaucoup de facteurs en jeu ici,” a-t-il essayé d'expliquer ce phénomène. Altman pense que les véritables utilisateurs ont déjà commencé à imiter la façon de parler des grands modèles de langage, et que les mécanismes d'optimisation des plateformes de médias sociaux commencent à récompenser le contenu à forte interaction, tandis que les entreprises adoptent des stratégies de “guerre des mots artificielle” pour influencer l'opinion publique.
Quel est le résultat final ? “Je ne sais pas pourquoi, mais Twitter et Reddit dominés par l'IA semblent très faux, c'est complètement différent d'il y a un an ou deux.”
À ce sujet, un utilisateur se présentant comme l'administrateur fondateur du sous-forum r/claudecode a proposé une perspective différente : “Les comptes qui semblent être des robots ont en fait passé le filtre anti-spam, la plupart existent depuis plus de 5 ans et sont actifs dans des centaines de sous-forums, ce qui ne correspond pas aux caractéristiques des faux comptes.” Cet utilisateur a également souligné : “Depuis la sortie de GPT-5, le ton du sous-forum a changé, beaucoup de gens commencent à préférer Codex CLI plutôt que le code Claude, ce qui a naturellement suscité l'opposition de certaines personnes.”
Il y a quelques jours, Altman a également admis qu'il ne croyait pas à la “théorie de l'internet mort”, mais maintenant il commence à douter qu'“il y a effectivement beaucoup de comptes Twitter gérés par de grands modèles de langage”. Cette théorie soutient que l'internet n'est plus contrôlé par des humains, mais plutôt dominé par des contenus générés par des robots et de l'IA, dans le but de manipuler l'opinion publique et de contrôler les utilisateurs.
Il est ironique que c'est OpenAI, dirigé par Altman, qui a probablement joué le rôle le plus important dans la mise en avant de l'IA et des chatbots dans le grand public. Lorsque les créateurs commencent à remettre en question leurs créations, devrions-nous être plus vigilants quant à la direction du développement technologique ?
La réalité du monde en ligne est en train d'être érodée, et il se pourrait que nous ayons du mal à discerner le vrai du faux. Lorsque l'IA est capable d'imiter parfaitement la manière dont les humains communiquent, l'internet peut-il encore être un lieu d'échange authentique des pensées humaines ? Cette question mérite la réflexion de chaque utilisateur du réseau.