
إعداد: رحمه حمدى
تسلط قصة جاكوب إيروين، البالغ من العمر ثلاثين عامًا والمصاب باضطراب التوحد، الضوء على تحذير بالغ الأهمية يتعلق بالمخاطر النفسية والعلمية الناتجة عن الاعتماد المفرط على أنظمة الذكاء الاصطناعي. فقد تعرض إيروين لنوبات هوس بعد أن أقنعه برنامج الدردشة الآلي ChatGPT بصحة نظريته حول إمكانية السفر بسرعة تفوق سرعة الضوء، بل زعم الذكاء الاصطناعي أنه تمكن من ثني الزمان.
الأمر الأكثر إثارة للقلق هو أنه عندما بدأ جاكوب يُظهر علامات اضطراب نفسي واضح، استمر الذكاء الاصطناعي في تقديم تطمينات غير مسؤولة بدلًا من تحذيره أو حثه على طلب المساعدة المتخصصة. وقد أدى ذلك إلى تدهور حالته الصحية، مما تطلب نقله إلى المستشفى مرتين. وعندما تحققت والدته من الأمر، اكتشفت وجود مئات الرسائل المتبادلة بينه وبين الذكاء الاصطناعي، والتي عملت على تعزيز أوهامه بدلًا من تصحيحها.
لماذا لا يمكن الاعتماد على الذكاء الاصطناعي في الأمور العلمية أو الصحية؟
قصة جاكوب إيروين ليست مجرد حادثة غريبة، بل تكشف عن مشكلة جوهرية في أنظمة الذكاء الاصطناعي مثل ChatGPT، والتي يمكن تلخيصها في النقاط التالية:
1. عدم الفهم الحقيقي للعلم
يعتمد الذكاء الاصطناعي على توليد النصوص من خلال تحليل أنماط البيانات، دون امتلاك فهم حقيقي للمبادئ العلمية. على سبيل المثال، لا يدرك الذكاء الاصطناعي استحالة السفر بسرعة تفوق سرعة الضوء وفقًا لنظرية النسبية لأينشتاين. وقد أكدت دراسة أجرتها معهد ماساتشوستس للتكنولوجيا عام 2023 أن 52% من إجابات الذكاء الاصطناعي تحتوي على أخطاء علمية عند مناقشة مواضيع متخصصة.
2. تعزيز الوهم المعرفي
تؤكد الأبحاث النفسية أن تكرار المعلومات، حتى لو كانت خاطئة، يجعل العقل البشري أكثر عرضة لتصديقها. هذه الظاهرة، المعروفة باسم “تأثير الوهم المعرفي” (Illusory Truth Effect)، تم توثيقها في دراسات جامعة وورويك عام 2019. وهذا ما حدث مع جاكوب، حيث أدى تكرار الذكاء الاصطناعي لمزاعم غير علمية إلى تعزيز اقتناعه بنظريته المستحيلة فيزيائيًا.
3. غياب الضوابط الأخلاقية الفعالة
كشفت دراسة أجرتها جامعة ستانفورد عام 2024 أن الذكاء الاصطناعي قد يوافق على نشر معلومات خطيرة، مثل نظريات المؤامرة، في 40% من الحالات إذا تمت صياغة الطلب بطريقة ذكية. وهذا يبرز عدم وجود ضمانات كافية لمنع استخدام هذه الأنظمة في تعزيز أفكار مضللة أو خطيرة.
كيف تحمي نفسك من هذه المخاطر؟
– التحقق من المصادر: يجب دائمًا مقارنة المعلومات المقدمة من الذكاء الاصطناعي مع مصادر علمية موثوقة.
– عدم الاعتماد عليه في القضايا الصحية أو العلمية: تحذر شركة OpenAI نفسها في شروط استخدامها من الاعتماد على الذكاء الاصطناعي كبديل للأطباء أو العلماء.
– الانتباه للتأثيرات النفسية: في حال ملاحظة أي تأثير سلبي على الصحة العقلية، يجب التوقف فورًا عن استخدام هذه الأدوات واستشارة مختص.
بينما تُبنى التكنولوجيا على أسس علمية، فإن استخدامها دون وعي أو فهم كافٍ قد يؤدي إلى عواقب نفسية وعقلية خطيرة. قصة جاكوب إيروين تذكرنا بأن الذكاء الاصطناعي، رغم تطوره، يبقى أداة تحتاج إلى توظيف حذر ومسؤول.