«غروكيبيديا».. موسوعة ذكاء اصطناعي بلا محررين
أطلق إيلون ماسك، عبر شركته الناشئة xAI، مشروع «غروكيبيديا» في أكتوبر 2025، معلناً إياه كمنافس مباشر لموسوعة ويكيبيديا. غير أن الاختلاف الجوهري يكمن في أن محتوى هذه الموسوعة يُنتج بالكامل بواسطة الذكاء الاصطناعي «غروك»، دون اعتماد يُذكر على التحرير البشري التقليدي. ويُسوّق ماسك للمشروع باعتباره موسوعة «متحررة من الانحياز الإيديولوجي»، خاصة ما يصفه بـ«هيمنة اليسار» على المعرفة الرقمية. وفي ظرف زمني وجيز، تجاوز عدد مقالات «غروكيبيديا» 5.6 ملايين مقال، ما جعلها رقماً صعباً في معادلة المحتوى على الإنترنت، رغم الجدل الكبير حول دقة مضامينها.
اتهامات مبكرة: معلومات خاطئة وسرديات منحازة
منذ ظهورها، وُجهت لـ«غروكيبيديا» انتقادات حادة بسبب نشر معطيات غير دقيقة، وأحياناً سرديات سياسية مثيرة للجدل، خصوصاً في القضايا الجيوسياسية والتاريخية الحساسة. ويرى خبراء أن غياب التدقيق البشري جعل الموسوعة عرضة لأخطاء منهجية قد تتحول إلى «حقائق رقمية» بفعل التكرار.
تحقيق «ذا غارديان»: عندما يستشهد ChatGPT بماسك
في تحقيق نشرته «ذا غارديان» بتاريخ 24 يناير، كشفت الصحيفة أن نموذج GPT-5.2 استشهد بـ«غروكيبيديا» كمصدر مباشر في 9 حالات من أصل 12 اختباراً، عند طرح أسئلة تتعلق بمواضيع «غامضة» أو «محدودة المصادر».
ومن أبرز الأمثلة:
الشأن الإيراني: تقديم معطيات دقيقة حول رواتب قوات «الباسيج» وملكية مؤسسات اقتصادية حساسة.
السير الذاتية التاريخية: معلومات غير صحيحة عن مؤرخين غربيين بارزين.
قضايا جدلية: تكرار روايات سياسية لم تظهر إلا داخل محتوى «غروكيبيديا».
الخطر الحقيقي: «تلوث النماذج» وحلقات التضليل
لا يكمن القلق الحقيقي في الاستشهاد بمصدر جديد، بل في ظاهرة يُطلق عليها الباحثون اسم «تلوث النماذج»، حيث يبدأ نموذج ذكاء اصطناعي في التعلم من مخرجات نموذج آخر، دون المرور عبر فلترة بشرية صارمة. هذا التفاعل يولّد حلقة مغلقة من المعلومات، تتراكم فيها الأخطاء وتكتسب شرعية رقمية يصعب تصحيحها لاحقاً، خصوصاً عندما تُقدَّم للمستخدم في قالب «إجابات موثوقة».
خبراء يحذرون: المصداقية هي السلاح الأخطر
تقول الباحثة المتخصصة في التضليل الإعلامي نينا يانكوفيتش إن الخطورة لا تكمن في الخطأ ذاته، بل في إضفاء المصداقية عليه. فحين يستشهد ChatGPT بمصدر ما، فإن المستخدم يفترض تلقائياً أن هذا المصدر موثوق، ما قد يفتح الباب أمام تمرير أجندات سياسية أو فكرية تحت غطاء «المعلومة المحايدة».
رد «أوبن إيه آي»: البحث في الويب لا يعني التبني
في ردها على الجدل، أوضحت شركة OpenAI أن نموذج GPT-5.2 يعتمد على البحث في نطاق واسع من المصادر العامة المتاحة على الإنترنت، مؤكدة وجود «فلاتر أمان» لتقليص المحتوى الضار. لكنها اعترفت ضمنياً بأن خوارزميات البحث قد تُبرز «غروكيبيديا» إذا كانت الأكثر تفصيلاً في موضوع معيّن.
هل نجح ماسك في اختراق العقل المعرفي للمنافس؟
يرى مراقبون أن ما يحدث يعكس تحولاً استراتيجياً في حرب الذكاء الاصطناعي، حيث لم يعد السباق مقتصراً على قوة النماذج، بل على التحكم في مصادر المعرفة نفسها. فإغراق الإنترنت بملايين المقالات المولدة آلياً قد يدفع النماذج المنافسة إلى الاقتباس منها، لا لثقتها، بل لغياب البديل.
المعرفة في عصر الذكاء الاصطناعي… من يراقب الحارس؟
يكشف هذا الجدل أن الثقة العمياء في أدوات الذكاء الاصطناعي قد تكون خطيرة بقدر التضليل نفسه. ففي عالم تُنتج فيه الآلة المعرفة وتُعيد استهلاكها، يصبح السؤال الجوهري: من يضمن دقة الحقيقة؟
وهو سؤال لم يعد تقنياً فقط، بل أخلاقياً وسياسياً بامتياز.
أطلق إيلون ماسك، عبر شركته الناشئة xAI، مشروع «غروكيبيديا» في أكتوبر 2025، معلناً إياه كمنافس مباشر لموسوعة ويكيبيديا. غير أن الاختلاف الجوهري يكمن في أن محتوى هذه الموسوعة يُنتج بالكامل بواسطة الذكاء الاصطناعي «غروك»، دون اعتماد يُذكر على التحرير البشري التقليدي. ويُسوّق ماسك للمشروع باعتباره موسوعة «متحررة من الانحياز الإيديولوجي»، خاصة ما يصفه بـ«هيمنة اليسار» على المعرفة الرقمية. وفي ظرف زمني وجيز، تجاوز عدد مقالات «غروكيبيديا» 5.6 ملايين مقال، ما جعلها رقماً صعباً في معادلة المحتوى على الإنترنت، رغم الجدل الكبير حول دقة مضامينها.
اتهامات مبكرة: معلومات خاطئة وسرديات منحازة
منذ ظهورها، وُجهت لـ«غروكيبيديا» انتقادات حادة بسبب نشر معطيات غير دقيقة، وأحياناً سرديات سياسية مثيرة للجدل، خصوصاً في القضايا الجيوسياسية والتاريخية الحساسة. ويرى خبراء أن غياب التدقيق البشري جعل الموسوعة عرضة لأخطاء منهجية قد تتحول إلى «حقائق رقمية» بفعل التكرار.
تحقيق «ذا غارديان»: عندما يستشهد ChatGPT بماسك
في تحقيق نشرته «ذا غارديان» بتاريخ 24 يناير، كشفت الصحيفة أن نموذج GPT-5.2 استشهد بـ«غروكيبيديا» كمصدر مباشر في 9 حالات من أصل 12 اختباراً، عند طرح أسئلة تتعلق بمواضيع «غامضة» أو «محدودة المصادر».
ومن أبرز الأمثلة:
الشأن الإيراني: تقديم معطيات دقيقة حول رواتب قوات «الباسيج» وملكية مؤسسات اقتصادية حساسة.
السير الذاتية التاريخية: معلومات غير صحيحة عن مؤرخين غربيين بارزين.
قضايا جدلية: تكرار روايات سياسية لم تظهر إلا داخل محتوى «غروكيبيديا».
الخطر الحقيقي: «تلوث النماذج» وحلقات التضليل
لا يكمن القلق الحقيقي في الاستشهاد بمصدر جديد، بل في ظاهرة يُطلق عليها الباحثون اسم «تلوث النماذج»، حيث يبدأ نموذج ذكاء اصطناعي في التعلم من مخرجات نموذج آخر، دون المرور عبر فلترة بشرية صارمة. هذا التفاعل يولّد حلقة مغلقة من المعلومات، تتراكم فيها الأخطاء وتكتسب شرعية رقمية يصعب تصحيحها لاحقاً، خصوصاً عندما تُقدَّم للمستخدم في قالب «إجابات موثوقة».
خبراء يحذرون: المصداقية هي السلاح الأخطر
تقول الباحثة المتخصصة في التضليل الإعلامي نينا يانكوفيتش إن الخطورة لا تكمن في الخطأ ذاته، بل في إضفاء المصداقية عليه. فحين يستشهد ChatGPT بمصدر ما، فإن المستخدم يفترض تلقائياً أن هذا المصدر موثوق، ما قد يفتح الباب أمام تمرير أجندات سياسية أو فكرية تحت غطاء «المعلومة المحايدة».
رد «أوبن إيه آي»: البحث في الويب لا يعني التبني
في ردها على الجدل، أوضحت شركة OpenAI أن نموذج GPT-5.2 يعتمد على البحث في نطاق واسع من المصادر العامة المتاحة على الإنترنت، مؤكدة وجود «فلاتر أمان» لتقليص المحتوى الضار. لكنها اعترفت ضمنياً بأن خوارزميات البحث قد تُبرز «غروكيبيديا» إذا كانت الأكثر تفصيلاً في موضوع معيّن.
هل نجح ماسك في اختراق العقل المعرفي للمنافس؟
يرى مراقبون أن ما يحدث يعكس تحولاً استراتيجياً في حرب الذكاء الاصطناعي، حيث لم يعد السباق مقتصراً على قوة النماذج، بل على التحكم في مصادر المعرفة نفسها. فإغراق الإنترنت بملايين المقالات المولدة آلياً قد يدفع النماذج المنافسة إلى الاقتباس منها، لا لثقتها، بل لغياب البديل.
المعرفة في عصر الذكاء الاصطناعي… من يراقب الحارس؟
يكشف هذا الجدل أن الثقة العمياء في أدوات الذكاء الاصطناعي قد تكون خطيرة بقدر التضليل نفسه. ففي عالم تُنتج فيه الآلة المعرفة وتُعيد استهلاكها، يصبح السؤال الجوهري: من يضمن دقة الحقيقة؟
وهو سؤال لم يعد تقنياً فقط، بل أخلاقياً وسياسياً بامتياز.
الرئيسية



















































