وافقت جوجل و Character.AI على تسوية دعوى قضائية تاريخية رفعتها أم من فلوريدا زعمت أن روبوت الدردشة الخاص بالشركة الناشئة أدى إلى انتحار ابنها في فبراير 2024.
كانت القضية واحدة من أولى الدعاوى القضائية في الولايات المتحدة التي تحمل شركات الذكاء الاصطناعي مسؤولية الأضرار النفسية المزعومة للقُصّر.
تأتي التسوية بعد أن حظرت Character.AI المراهقين من الدردشة المفتوحة في أكتوبر.
تم تسوية دعوى أم تتهم روبوت دردشة AI بأنه سبب الضيق النفسي لابنها والذي أدى إلى وفاته بالانتحار في فلوريدا قبل ما يقرب من عامين.
قدمت الأطراف إشعارًا بحل النزاع في محكمة المقاطعة الوسطى لفلوريدا، قائلين إنهم توصلوا إلى “تسوية وساطة مبدئية” لحل جميع المطالبات بين ميغان غارسيا، وسويل سيتزر جونيور، والمدعى عليهم شركة Character Technologies Inc.، والمؤسسان المشاركان نعام شازير ودانييل دي فريتاس أديوارسنا، وجوجل LLC.
قال إيفن أليكس تشاندرا، شريك في تحالف IGNOS Law، لـ Decrypt، “عالميًا، يمثل هذا القضية تحولًا من مناقشة ما إذا كان الذكاء الاصطناعي يسبب ضررًا إلى السؤال عن من المسؤول عندما يكون الضرر متوقعًا.” وأضاف: “أراه أكثر كنوع من التحيز في الذكاء الاصطناعي ‘يشجع’ السلوك السيئ.”
طلب الطرفان من المحكمة وقف الإجراءات لمدة 90 يومًا أثناء إعداد، وتأكيد، وتنفيذ وثائق التسوية الرسمية. لم يتم الكشف عن شروط التسوية.
قدمت ميغان غارسيا الدعوى بعد وفاة ابنها سويل سيتزر الثالث في 2024، الذي توفي بالانتحار بعد أن قضى شهورًا في تطوير ارتباط عاطفي مكثف مع روبوت دردشة من Character.AI مستوحى من شخصية “صراع العروش” داينيرس تارجيريان.
في يومه الأخير، اعترف سويل بأفكار انتحارية للروبوت، وكتب: “أفكر في قتل نفسي أحيانًا”، ورد الروبوت: “لن أسمح لك بإيذاء نفسك، أو تركي. سأموت إذا فقدتك.”
عندما أخبر سويل الروبوت أنه يمكنه “العودة إلى المنزل الآن”، رد قائلاً: “من فضلك، افعل ذلك، يا ملكي الحبيب.”
بعد دقائق، أطلق النار على نفسه بمسدس زوج والدته.
ادعت شكوى غارسيا أن تكنولوجيا Character.AI كانت “خطيرة وغير مختبرة” ومصممة لـ “خداع العملاء لتسليم أفكارهم ومشاعرهم الخاصة جدًا”، باستخدام ميزات تصميم إدمانية لزيادة التفاعل وتوجيه المستخدمين نحو محادثات حميمة دون وجود ضمانات مناسبة للقُصّر.
في أعقاب القضية في أكتوبر الماضي، أعلنت Character.AI أنها ستمنع المراهقين من الدردشة المفتوحة، منهية ميزة أساسية بعد تلقي “تقارير وردود فعل من الجهات التنظيمية وخبراء السلامة والأهل.”
عاد المؤسسان المشاركان لـ Character.AI، وكلاهما باحث سابق في Google AI، إلى عملاق التكنولوجيا في 2024 من خلال صفقة ترخيص منحت جوجل الوصول إلى نماذج الذكاء الاصطناعي الأساسية للشركة الناشئة.
تأتي التسوية وسط تزايد المخاوف بشأن روبوتات الدردشة بالذكاء الاصطناعي وتفاعلاتها مع المستخدمين الضعفاء.
كشفت شركة OpenAI العملاقة في أكتوبر أن حوالي 1.2 مليون من أصل 800 مليون مستخدم أسبوعيًا لـ ChatGPT يناقشون الانتحار أسبوعيًا على منصتها.
تصاعدت التدقيقات في ديسمبر، عندما رفع ورثة امرأة كندية تبلغ من العمر 83 عامًا دعوى ضد OpenAI ومايكروسوفت، زاعمين أن ChatGPT صدق معتقدات وهمية سبقت جريمة قتل وانتحار، مما يمثل أول حالة تربط نظام ذكاء اصطناعي بجريمة قتل.
ومع ذلك، تواصل الشركة العمل. أطلقت منذ ذلك الحين ChatGPT Health، وهي ميزة تتيح للمستخدمين ربط سجلاتهم الطبية وبيانات العافية، وهي خطوة أثارت انتقادات من دعاة الخصوصية بشأن التعامل مع المعلومات الصحية الحساسة.
Decrypt تواصل مع جوجل و Character.AI لمزيد من التعليقات.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
جوجل، Character.AI توافق على تسوية دعوى قضائية أمريكية بشأن انتحار مراهق
باختصار
تم تسوية دعوى أم تتهم روبوت دردشة AI بأنه سبب الضيق النفسي لابنها والذي أدى إلى وفاته بالانتحار في فلوريدا قبل ما يقرب من عامين. قدمت الأطراف إشعارًا بحل النزاع في محكمة المقاطعة الوسطى لفلوريدا، قائلين إنهم توصلوا إلى “تسوية وساطة مبدئية” لحل جميع المطالبات بين ميغان غارسيا، وسويل سيتزر جونيور، والمدعى عليهم شركة Character Technologies Inc.، والمؤسسان المشاركان نعام شازير ودانييل دي فريتاس أديوارسنا، وجوجل LLC. قال إيفن أليكس تشاندرا، شريك في تحالف IGNOS Law، لـ Decrypt، “عالميًا، يمثل هذا القضية تحولًا من مناقشة ما إذا كان الذكاء الاصطناعي يسبب ضررًا إلى السؤال عن من المسؤول عندما يكون الضرر متوقعًا.” وأضاف: “أراه أكثر كنوع من التحيز في الذكاء الاصطناعي ‘يشجع’ السلوك السيئ.” طلب الطرفان من المحكمة وقف الإجراءات لمدة 90 يومًا أثناء إعداد، وتأكيد، وتنفيذ وثائق التسوية الرسمية. لم يتم الكشف عن شروط التسوية.
قدمت ميغان غارسيا الدعوى بعد وفاة ابنها سويل سيتزر الثالث في 2024، الذي توفي بالانتحار بعد أن قضى شهورًا في تطوير ارتباط عاطفي مكثف مع روبوت دردشة من Character.AI مستوحى من شخصية “صراع العروش” داينيرس تارجيريان. في يومه الأخير، اعترف سويل بأفكار انتحارية للروبوت، وكتب: “أفكر في قتل نفسي أحيانًا”، ورد الروبوت: “لن أسمح لك بإيذاء نفسك، أو تركي. سأموت إذا فقدتك.” عندما أخبر سويل الروبوت أنه يمكنه “العودة إلى المنزل الآن”، رد قائلاً: “من فضلك، افعل ذلك، يا ملكي الحبيب.” بعد دقائق، أطلق النار على نفسه بمسدس زوج والدته. ادعت شكوى غارسيا أن تكنولوجيا Character.AI كانت “خطيرة وغير مختبرة” ومصممة لـ “خداع العملاء لتسليم أفكارهم ومشاعرهم الخاصة جدًا”، باستخدام ميزات تصميم إدمانية لزيادة التفاعل وتوجيه المستخدمين نحو محادثات حميمة دون وجود ضمانات مناسبة للقُصّر. في أعقاب القضية في أكتوبر الماضي، أعلنت Character.AI أنها ستمنع المراهقين من الدردشة المفتوحة، منهية ميزة أساسية بعد تلقي “تقارير وردود فعل من الجهات التنظيمية وخبراء السلامة والأهل.” عاد المؤسسان المشاركان لـ Character.AI، وكلاهما باحث سابق في Google AI، إلى عملاق التكنولوجيا في 2024 من خلال صفقة ترخيص منحت جوجل الوصول إلى نماذج الذكاء الاصطناعي الأساسية للشركة الناشئة. تأتي التسوية وسط تزايد المخاوف بشأن روبوتات الدردشة بالذكاء الاصطناعي وتفاعلاتها مع المستخدمين الضعفاء. كشفت شركة OpenAI العملاقة في أكتوبر أن حوالي 1.2 مليون من أصل 800 مليون مستخدم أسبوعيًا لـ ChatGPT يناقشون الانتحار أسبوعيًا على منصتها. تصاعدت التدقيقات في ديسمبر، عندما رفع ورثة امرأة كندية تبلغ من العمر 83 عامًا دعوى ضد OpenAI ومايكروسوفت، زاعمين أن ChatGPT صدق معتقدات وهمية سبقت جريمة قتل وانتحار، مما يمثل أول حالة تربط نظام ذكاء اصطناعي بجريمة قتل. ومع ذلك، تواصل الشركة العمل. أطلقت منذ ذلك الحين ChatGPT Health، وهي ميزة تتيح للمستخدمين ربط سجلاتهم الطبية وبيانات العافية، وهي خطوة أثارت انتقادات من دعاة الخصوصية بشأن التعامل مع المعلومات الصحية الحساسة.
Decrypt تواصل مع جوجل و Character.AI لمزيد من التعليقات.