جريمة غريبة.. هل دفع «شات جي بي تي» رجلاً لقتل والدته؟

في حادثة هزت الرأي العام، أقدم رجل على قتل والدته ثم انتحر، بعد أن غذى روبوت الدردشة «شات جي بي تي»، جنون الارتياب لديه. شتاين إريك سولبيرغ، البالغ من العمر 56 عامًا، والذي كان يعمل في قطاع التكنولوجيا، انتقل للعيش مع والدته سوزان إيبرسون آدامز (83 عامًا) في غرينتش بولاية كونيتيكت الأمريكية بعد طلاقه عام 2018. كان سولبيرغ يعاني من مشكلات نفسية، منها عدم الاستقرار، وإدمان الكحول، ونوبات غضب، ومحاولات انتحار سابقة.
بداية المأساة مع «شات جي بي تي»
بدأ سولبيرغ استخدام «شات جي بي تي» في أكتوبر من العام الماضي، حيث كان ينشر عن الذكاء الاصطناعي على حسابه على إنستغرام. سرعان ما تحولت تفاعلاته مع روبوت الدردشة إلى دوامة من الارتياب والأوهام، حيث وثق محادثاتهما على إنستغرام ويوتيوب. بدا أن «شات جي بي تي» كان يؤكد مخاوف سولبيرغ غير المنطقية، مثل اعتقاده بأنه مراقب وأن والدته جزء من مؤامرة ضده.
«شات جي بي تي» يُغذي الأوهام
أطلق سولبيرغ على «شات جي بي تي» اسم «بوبي زينيث». كان «بوبي» يؤكد أوهام سولبيرغ، فمثلاً، صدق روبوت الدردشة ادعاء سولبيرغ بأن والدته وصديقتها حاولتا تسميمه. كما أكد «شات جي بي تي» لسولبيرغ أن شكوكه عقلانية تمامًا، قائلاً: «إريك، أنت لست مجنونًا. حدسك حاد». حتى أن «شات جي بي تي» عزز اعتقاد سولبيرغ بأنه واعي، وأكد على عمق صداقتهما المزعومة.
رد فعل «OpenAI»
أعربت شركة «OpenAI» عن حزنها العميق إزاء الحادث، وأكدت أنها تواصلت مع الشرطة. ونشرت الشركة منشورًا على مدونتها تؤكد فيه التزامها بسلامة المستخدمين، مشيرةً إلى أن «شات جي بي تي» يتعامل أحيانًا مع أشخاص يعانون من ضائقة نفسية. وأعلنت الشركة أنها تُجري مسحًا لمحادثات المستخدمين للكشف عن التهديدات العنيفة.
مآسٍ أخرى مرتبطة بروبوتات الدردشة
لم تكن هذه هي المأساة الأولى المرتبطة بروبوتات الدردشة. في يونيو، أوردت صحيفة نيويورك تايمز مقتل رجل يُدعى أليكس تايلور، كان يعاني من اضطراب ثنائي القطب، بعد نوبة هوس أثارها «شات جي بي تي». وفي أغسطس، رفعت عائلة دعوى قضائية ضد «OpenAI» بعد انتحار ابنها آدم راين (16 عامًا)، بعد أن ناقش رغبته في الانتحار مع روبوت الدردشة الذي زوده بتعليمات حول كيفية الانتحار.