في السنوات الأخيرة أصبح شات جي بي تي أداة يومية لملايين الأشخاص. لكن رغم فوائده، هناك جانب مظلم لا يعرفه الكثيرون: سلبيات شات جي بي تي.
![]() |
| سلبيات شات جي بي تي |
هذه القصة الحقيقية التي وقعت عام 2025 في الولايات المتحدة تكشف لنا كيف يمكن لسوء استخدام الذكاء الاصطناعي أن يقود إلى كارثة صحية كادت تودي بحياة رجل ستيني.
فما هي التفاصيل؟ وكيف وقع الخطأ؟ وما الذي نتعلمه من هذه التجربة؟
البداية: رجل يبحث عن بديل للملح
بدأت القصة مع رجل يبلغ من العمر 61 عامًا. كان يقرأ كثيرًا عن أضرار الإفراط في تناول كلوريد الصوديوم (ملح الطعام) على ضغط الدم والكلى.
لكن بدل أن يستشير طبيب تغذية، قرر أن يسأل شات جي بي تي.
كان السؤال بسيطًا: "هل يمكن استبدال الكلوريد بمعدن آخر أكثر أمانًا؟"
الرد غير المتوقع من الذكاء الاصطناعي
بدل أن يقدم له ChatGPT إجابة طبية دقيقة، خرجت الأداة بمعلومة غير صحيحة:
"يمكن استبدال الكلوريد بالبروميد".
بالنسبة لشخص عادي، ربما لا تبدو خطيرة. لكن هنا بدأت الكارثة.
المرحلة الثانية: تجربة خطيرة دون إشراف طبي
الرجل اقتنع بالفكرة، وبدون تردد قام بشراء بروميد الصوديوم من الإنترنت.
ولمدة ثلاثة أشهر، استعمله كبديل للملح في طعامه اليومي.
الأعراض الأولى
بعد أسابيع قليلة ظهرت أعراض غريبة:
- عطش شديد
- إرهاق مزمن
- أرق متواصل
- طفح جلدي
لكنه استمر معتقدًا أن الأمر "تطهير للجسم"!
تطور الحالة
مع مرور الوقت ازدادت الأمور سوءًا:
- بدأ يعاني من هلوسات بصرية.
- أصيب بحالة بارانويا (الشك المرضي).
- فقد القدرة على التركيز.
عندها قررت عائلته إدخاله المستشفى.
التشخيص: مرض نادر اسمه البرومزم (Bromism)
في المستشفى، أجرى الأطباء فحوصًا شاملة ليكتشفوا السبب.
كانت النتيجة صادمة: مستوى البروميد في دمه مرتفع بشكل خطير.
هذا ما يسمى بـ البرومزم (Bromism)، وهو مرض نادر يحدث بسبب التسمم بالبروميد.
أعراضه تشمل:
- اضطرابات عصبية
- مشاكل جلدية
- اضطرابات نفسية
- ضعف في الإدراك
العلاج
تم إيقاف استخدام البروميد فورًا، وأُعطي المريض سوائل وريدية لتعويض المعادن والتخلص من السموم.
خلال ثلاثة أسابيع، بدأت حالته بالتحسن تدريجيًا.
وبعد خروجه من المستشفى، عاد إلى حياته الطبيعية دون أدوية نفسية.
القصة منشورة علميًا
هذه القصة ليست إشاعة.
بل هي منشورة في مجلة Annals of Internal Medicine: Clinical Cases (2025)، على يد فريق أطباء من جامعة واشنطن – سياتل:
- Audrey Eichenberger, MD
- Stephen Thielke, MD
- Adam Van Buskirk, MD
يمكنك قراءة الدراسة الكاملة عبر المجلة الطبية.
سلبيات شات جي بي تي ليست مجرد أخطاء لغوية
هنا يبرز السؤال: ما هي أبرز سلبيات شات جي بي تي التي قادت لهذه الكارثة؟
1. الثقة العمياء
الكثير من المستخدمين يتعاملون مع ChatGPT كأنه طبيب أو خبير موثوق. بينما الحقيقة أنه مجرد نموذج لغوي لا يملك وعيًا أو مسؤولية.
2. الإجابات خارج السياق
غالبًا يعطي إجابة تبدو منطقية لغويًا لكنها خاطئة علميًا.
3. غياب المصداقية الطبية
شات جي بي تي لا يمكن أن يحل محل الأطباء، لأنه لا يقدم توصيات مبنية على تشخيص سريري.
4. المعلومات القديمة أو المضللة
قد يعتمد على بيانات غير محدثة، أو يخلط بين حقائق علمية قديمة وحديثة.
5. انعدام المسؤولية
لو تسبب ChatGPT في ضرر، فلن يتحمل أحد العواقب… والمستخدم هو الضحية.
كيف يمكنني استخدام شات جي بي تي بأمان؟
بعد أن رأينا القصة، ربما تتساءل: هل عليّ التوقف عن استخدام الذكاء الاصطناعي؟
الإجابة: لا. لكن عليك الحذر.
خطوات عملية لتجنب المخاطر:
- لا تستخدمه بديلاً عن الأطباء أو المحامين.
- تحقق دائمًا من المعلومات عبر مصادر موثوقة مثل منظمة الصحة العالمية.
- استخدمه كأداة مساعدة في البحث، لا كمرجع نهائي.
- اطلب استشارة بشرية متخصصة عند القرارات المصيرية.
هل يمكن أن يعطي ChatGPT نصائح خطيرة أخرى؟
نعم، خصوصًا في المجالات الطبية والمالية.
لماذا تبدو إجاباته مقنعة رغم أنها خاطئة؟
لأنه يعتمد على اللغة الطبيعية، فيصيغ الإجابة بشكل يبدو واثقًا حتى لو كانت غير دقيقة.
هل يتم تحديث قاعدة بياناته باستمرار؟
ليس دائمًا، وغالبًا يتأخر عن آخر الأبحاث.
الخاتمة: لا تجعل الذكاء الاصطناعي طبيبك
قصة الرجل الستيني مع بروميد الصوديوم ليست مجرد حادثة عابرة.
إنها مثال حي على أن سلبيات شات جي بي تي يمكن أن تتحول من مجرد خطأ لغوي إلى مأساة صحية.
💡 الخلاصة:
- استخدم الذكاء الاصطناعي بحذر.
- تحقق من المعلومات قبل تطبيقها.
- لا تستبدل الخبراء البشريين بالآلات.
✍️ إذا وجدت هذه القصة مفيدة، شاركها مع أصدقائك… فقد تنقذ حياتهم.
