تكنو لايف

الذكاء الاصطناعي وصحة المستخدمين: دراسة تكشف تكرار المعلومات الطبية المغلوطة


في وقت يشهد فيه الذكاء الاصطناعي انتشاراً واسعاً في مختلف مجالات الحياة اليومية، سلطت دراسة حديثة الضوء على مخاطر محتملة تتعلق باستخدام هذه التقنيات في المجال الطبي. وكشفت الدراسة أن أنظمة ذكاء اصطناعي، من بينها ChatGPT، قد تعيد إنتاج معلومات طبية غير دقيقة أو مغلوطة موجودة على الإنترنت، ما يطرح تحديات جدية تتعلق بالمصداقية وصحة المعلومات المقدمة للمستخدمين.



وأوضح الباحثون أن هذه التقنيات، رغم قدرتها العالية على معالجة كم هائل من البيانات وتقديم إجابات شبه فورية، تعتمد على البيانات المتاحة على الشبكة العنكبوتية، والتي قد تحتوي على أخطاء أو تضليل. وعليه، فإن الذكاء الاصطناعي قد يقوم، من دون قصد، بـ تكرار المعلومات الخاطئة بنفس الطريقة التي يمكن أن ينقل بها المستخدم غير المطلع محتوى غير موثوق.

وأضافت الدراسة أن هذه الظاهرة قد تؤدي إلى مخاطر كبيرة على الصحة العامة، خصوصاً إذا اعتمد الأفراد على هذه الأدوات للحصول على استشارات طبية أو تشخيص أولي. ويشير الباحثون إلى أن المعلومات الطبية المغلوطة يمكن أن تؤثر على القرارات العلاجية، وتؤخر استشارة الأطباء المتخصصين، بل وتزيد من انتشار الممارسات الصحية الضارة.

وتستعرض الدراسة أيضاً ضرورة وضع إطار تنظيمي واضح لاستخدام الذكاء الاصطناعي في المجال الطبي، يشمل عدة عناصر، من بينها:

التحقق من مصادر المعلومات المعتمدة من قبل الذكاء الاصطناعي.

اعتماد أساليب تصحيح تلقائية للمعلومات المغلوطة.

توفير إشعارات تحذيرية للمستخدمين حول احتمال وجود أخطاء أو حدود استخدام الأداة.

إشراك متخصصين طبيين في عملية مراجعة وتدقيق محتوى الاستشارات التي يقدمها الذكاء الاصطناعي.

وأشار الباحثون إلى أن الذكاء الاصطناعي ليس أداة طبية مستقلة، بل أداة مساعدة يجب استخدامها بحذر وتحت إشراف مختصين، مؤكّدين أن الفوائد الكبيرة لهذه التكنولوجيا في تحسين الوصول إلى المعلومات الطبية يجب أن تُوازن مع حماية المستخدمين من مخاطر المعلومات المغلوطة.

من جانبه، دعا الخبراء إلى تعزيز التوعية العامة بين مستخدمي هذه التقنيات حول حدود ما يمكن أن يقدمه الذكاء الاصطناعي في المجال الصحي، وتشجيع الاعتماد على مصادر موثوقة ومراجعة الأطباء عند الحاجة. وأكدوا أن هذا الإطار لا يحد من الابتكار، بل يضمن أن تظل تقنيات الذكاء الاصطناعي قوة مساعدة وآمنة في خدمة الصحة العامة.

وتمثل هذه الدراسة نداءً للتحرك السريع على مستوى القوانين والسياسات الرقمية، لضمان استخدام الذكاء الاصطناعي بطريقة مسؤولة، خصوصاً في مجالات حساسة مثل الصحة، حيث يمكن لأي معلومة مغلوطة أن يكون لها تأثير مباشر على حياة الأفراد وسلامتهم.

سارة البوفي كاتبة وصحفية بالمؤسسة الإعلامية الرسالة… إعرف المزيد حول هذا الكاتب



الأربعاء 11 فبراير 2026
في نفس الركن