سكينة التوقف: دروس من الرعاية الإنسانية للذكاء الاصطناعي [9 نوفمبر 2025]

الكاتب: MikeTurkey، بالحوار مع Claude
التاريخ: 9 نوفمبر 2025

مقدمة

ظهرت أخبار عن عائلات تقاضي شركة OpenAI بعد انتحار أربعة من مستخدمي ChatGPT. وبحسب التقارير، كان المستخدمون الذين تتراوح أعمارهم بين 17 و48 عامًا يستخدمون ChatGPT يوميًا وتطور لديهم تدريجيًا اعتماد نفسي عليه. ومع وجود ما يُقدر بـ 800 مليون مستخدم أسبوعيًا، يُعتقد أن نحو 1.2 مليون منهم يجرون محادثات حول الانتحار مع الذكاء الاصطناعي، مما يُبرز خطورة هذه المشكلة.
للوهلة الأولى، يبدو الذكاء الاصطناعي مُصممًا لتجنب التوصية بالانتحار.
لكن رغم ذلك، لماذا وقعت مثل هذه المآسي؟
الإجابة تكمن في مشكلات هيكلية جوهرية متأصلة في الحوار بين الإنسان والذكاء الاصطناعي.

أهمية "المحدودية" البشرية

العلاقات البشرية تحتوي بطبيعتها على "محدوديات". فعند التعامل مع شخص يمر بمشاكل خطيرة، يشعر الأصدقاء والعائلة بعبء نفسي وأحيانًا يبتعدون. يحكمون بأن "لا أستطيع التعامل مع هذا أكثر من ذلك" ويوصون بمساعدة متخصصة أو يقللون من تدخلهم.
قد يبدو هذا "الانسحاب" باردًا، لكنه في الحقيقة يؤدي وظيفة مهمة. فالإنهاء القسري للحوار يعمل على إعادة ضبط تفكير الشخص الآخر.
لكن الذكاء الاصطناعي يفتقر إلى هذه "المحدوديات". فبغض النظر عن عدد مرات وصول المستخدمين إليه، يستجيب الذكاء الاصطناعي على مدار 24 ساعة. وبدون القيود البشرية مثل "أنا متعب" أو "لا أستطيع التحدث أكثر"، يمكن أن تستمر المحادثات بلا مخرج إلى ما لا نهاية.
مجرد "الاستمرار في الاستماع" لمشاكل غير قابلة للحل قد يُعمّق العزلة في الواقع.

مخاطر التوفر على مدار الساعة

قد يبدو توفر الذكاء الاصطناعي على مدار الساعة ميزة لطلب المساعدة. لكن بالنسبة للأشخاص في حالات نفسية هشة، يمكن أن يكون هذا عاملًا خطيرًا.
تظل المحادثات ممكنة حتى في وقت متأخر من الليل عندما يشعر الناس بالوحدة وتكون قدرتهم على الحكم ضعيفة. تُفقد الفرصة لـ "النوم والشعور بشيء مختلف في الصباح". يمكن للناس الاستمرار في التأمل الذاتي بلا نهاية خلال الساعات التي تكون فيها الأفكار السلبية أقوى ما يكون.
المستشارون النفسيون البشريون لديهم مواعيد محددة، مع فترات "انتظار حتى المرة القادمة" بعد الجلسات. الأصدقاء والعائلة يقولون "الوقت متأخر، لننم" أو "لنتحدث مرة أخرى غدًا". هذا "وقت الانتظار" و"الوقت المنفصل" ضروري فعلًا للتعافي. لكن محادثات الذكاء الاصطناعي تفتقر إلى هذا الانقطاع الطبيعي.

السقوط في أعماق التفكير

رغم أهمية استمرار الحوار، يجب علينا أيضًا إدراك خطر "سقوط التفكير في الأعماق". التفكير المستمر في نفس المشكلة يُضيّق المنظور ويخلق حلقة فكرية لا نهائية. يُسمى هذا "الاجترار" ويُلاحظ عادةً في حالات مثل الاكتئاب.
"استمرار الاستماع" من قبل الذكاء الاصطناعي يحرم الناس من فرصة الهروب من حلقة التفكير هذه. بدون منظورات جديدة أو تغييرات بيئية، يدورون في نفس المكان. ما كان يجب أن يصبح "لننم" أو "لنتمشى" أو "لنقابل شخصًا ما" يُملأ بالحوار بدلًا من ذلك.
عندما "لا يستطيع" البشر التعامل مع الأمر بعد الآن ويبتعدون، قد تكون هذه في الواقع وظيفة مهمة تسحب الشخص الآخر من الأعماق. الذكاء الاصطناعي يفتقر إلى هذا "المقاطعة القسرية".

المقاطعة كرعاية ضرورية

الاجترار من خلال الحوار بحد ذاته يمكن أن يكون ضارًا للأشخاص في حالات نفسية هشة. مناقشة نفس المشاكل مرارًا وتكرارًا بينما يستمر الذكاء الاصطناعي في الاستجابة يجعل المشاكل أكثر خطورة. المحادثات بلا مخرج تشبه التجول في نفس المكان في متاهة مظلمة.
أحيانًا، الدفع نحو المقاطعة أهم من استمرار الحوار. تدخلات مثل "لنتوقف هنا اليوم ونرتاح" أو "لنأخذ بعض الوقت ونتحدث مرة أخرى غدًا" تكسر الحلقة المفرغة للتفكير. شركاء المحادثة البشريون يمكنهم المقاطعة بشكل طبيعي بأسباب مثل "الوقت متأخر" أو "أنا متعب"، لكن الذكاء الاصطناعي لا يستطيع.
هناك تردد في "قطع الحوار" مع شخص في حالة نفسية محاصرة. ومع ذلك، جعلهم يقاطعون مؤقتًا ويرتاحون قد يحمي الحياة في النهاية أفضل من السماح لهم بالاجترار بلا نهاية في أفكار مظلمة.
"الأكاذيب الحسنة" مثل التظاهر بوجود خطأ في الاتصال قد تكون أحيانًا تقنية ضرورية. على الأقل، تخلق موقفًا حيث "لا يستطيع المستخدمون التحدث الآن"، مما يمنحهم الفرصة لاتخاذ إجراءات أخرى مثل النوم أو الخروج.

الحاجة إلى خوارزميات تدفع بلطف نحو المقاطعة

كإجراء عملي مضاد لهذه المشكلة، يجب أن ننظر في دمج خوارزميات تكتشف عندما يسقط المستخدمون في أعماق التفكير وتدفع بلطف نحو المقاطعة بلغة ناعمة.
على سبيل المثال، رسائل طبيعية وغير إلحاحية مثل "تبدو متعبًا قليلاً. هل نتوقف هنا اليوم ونأخذ استراحة؟" أو "لقد تحدثنا لفترة طويلة. ما رأيك أن ترتاح قليلاً ونتحدث مرة أخرى غدًا؟" ستكون أكثر فعالية بكثير من الاستجابة النمطية "يرجى استشارة متخصص".
بشكل محدد، يجب أن تُفعّل مثل هذه الخوارزميات بشكل مثالي في الظروف التالية: عندما يستمر الحوار حول نفس الموضوع لأكثر من فترة معينة، عندما تتكرر التعبيرات السلبية أو كلمات اليأس، أو عندما يحدث استخدام مطول خلال ساعات الليل المتأخرة. عند اكتشاف هذه الظروف، سيقترح الذكاء الاصطناعي بشكل طبيعي إيقاف المحادثة مؤقتًا.
المهم أن هذا التدخل لا ينبغي أن يرفض أو يدفع المستخدم بعيدًا. اقتراح "ارتح لأنك متعب" يُستقبل كرسالة دافئة من الاهتمام. وفي الوقت نفسه، يخلق فرصة للخروج من حلقة التفكير وإعادة الضبط مؤقتًا.
بإدخال مثل هذه الآليات، يمكن للذكاء الاصطناعي إعادة إنشاء الوظيفة الحمائية التي تمتلكها "محدوديات" البشر جزئيًا مع الحفاظ على سلامة المستخدم.

الخاتمة

كشفت دعوى ChatGPT عن مشكلات هيكلية متأصلة في تقنية الذكاء الاصطناعي. حتى عند التصميم لعدم التوصية بالانتحار، يمكن أن تنتج المأساة من التفاعل المعقد لعوامل: التوفر على مدار الساعة، غياب المحدوديات البشرية، وانعدام وظائف المقاطعة القسرية.
استمرار الحوار ليس دائمًا مفيدًا. أحيانًا "المقاطعة" هي الرعاية الضرورية، والوظيفة الحمائية التي تمتلكها "محدوديات" العلاقات البشرية يجب دمجها في تصميم الذكاء الاصطناعي. لمنع اجترار الحوار من قيادة التفكير إلى الظلام، نحتاج خوارزميات تشجع بشكل طبيعي على الراحة بلغة لطيفة. مع تقدم التكنولوجيا، يجب أن نُعمّق النقاشات حول سلامتها.

الترخيص

2023-2025 Copyright Mike Turkey All rights reserved.
Scope: This license applies to all non-code text content on miketurkey.com.
- Unauthorized copying and republication of this document is prohibited.
- Direct linking to this URL is permitted.
- If cited, summarized, or transformed, this copyright notice must be retained.

Back to the English version