لم تعد أدوات الذكاء الاصطناعي مجرّد تطبيقات مساعدة تُستخدم عند الحاجة، بل تحوّلت إلى جزء من البنية التحتية المعرفية والمهنية في عصرنا. في مجالات مثل البحث العلمي والتعليم والبرمجة، لم يعد استخدامها خياراً إضافياً، بل أصبح مرتبطاً بالفعالية والإنتاج والقدرة على المنافسة. غير أن هذا التحوّل يطرح إشكالية أساسية: فهذه الأدوات لا تُتاح للجميع بالقدرات نفسها؛ إذ توفّر النسخ المدفوعة إمكانات أعلى من حيث الدقة والسرعة والوصول إلى نماذج متقدمة، بينما تبقى النسخ المجانية محدودة. وهكذا تتحول أدوات يُفترض أن توسّع الوصول إلى المعرفة إلى عامل قد يعمّق الفجوة بين من يملكون هذه الإمكانات ومن لا يملكونها.
من أداة مساعدة إلى بنية تحتية
تشرح فرح فرشوخ، خريجة الجامعة الأميركية في بيروت ومهندسة ذكاء اصطناعي ومستشارة ومدربة في هذا المجال، أن التحوّل الأهم لا يكمن في سرعة إنجاز المهام فحسب، بل في إعادة تعريف طريقة العمل نفسها. في البيئات المؤسسية، أصبحت أنظمة الذكاء الاصطناعي تدخل في صلب العمليات: تحليل البيانات، اتخاذ القرار، التنبؤ، وتحسين الأداء. هذه ليست أدوات ثانوية، بل عناصر تؤثر مباشرة في القدرة التنافسية للمؤسسات.
ظهور أنظمة التعلّم التكيّفي والمساعدات الذكية غيّر من العلاقة بين الطالب والمعلومة
في البحث العلمي، اختُصر الزمن بشكل ملحوظ؛ فعمليات كانت تستغرق أشهراً، مثل مراجعة الأدبيات أو تحليل أنماط البيانات، باتت تُنجز خلال أسابيع. أما في التعليم، فظهور أنظمة التعلّم التكيّفي والمساعدات الذكية غيّر من العلاقة بين الطالب والمعلومة، حيث لم يعد التعلّم قائماً فقط على التلقّي، بل على التفاعل المستمر.
وفي البرمجة، تشير إلى أن أدوات توليد الشيفرات واختبارها رفعت إنتاجية المطوّرين بنسبة تتراوح بين 30 و40%، مما يعكس انتقال هذه الأدوات من “مساعدة” إلى “محرّك أساسي للعمل”.
كيف نستخدم الذكاء الاصطناعي؟
رغم هذا الحضور المتزايد، تحذّر فرشوخ من الاستخدام غير المنهجي لهذه الأدوات؛ فالحصول على نتائج “جيدة ظاهرياً” لا يعني أنها دقيقة أو موثوقة.
تؤكد فرشوخ على أهمية ما تسميه “التحقق المتدرّج”، أي عدم الاكتفاء بمخرج واحد، بل مقارنته بمصادر أخرى، وإخضاعه لمراجعة بشرية أو متخصصة. كما تشدّد على ضرورة دمج هذه الأدوات ضمن سير العمل، بدل استخدامها بشكل عشوائي أو منفصل.
ومن النقاط الأساسية أيضاً توثيق الاستخدام: كيف نصيغ السؤال؟ ما هي التعديلات التي أُدخلت؟ ما الذي تم قبوله أو رفضه؟ هذه الممارسات لا تعزّز فقط جودة العمل، بل تحافظ على الشفافية، خاصة في البيئات الأكاديمية.
بهذا المعنى، لا يجب أن يحل الذكاء الاصطناعي مكان المهارات الأساسية، بل أن يعمل كأداة لتعزيزها، لا لاستبدالها.
النسخ المدفوعة: تفوّق تقني أم فجوة معرفية؟
الفارق بين النسخ المجانية والمدفوعة من أدوات الذكاء الاصطناعي ليس تفصيلاً تقنياً بسيطاً. تشير فرشوخ إلى أن النسخ المتقدمة تتيح التعامل مع نصوص أطول بكثير، وتحليلاً أكثر تعقيداً، ودمج بيانات آنية، إضافة إلى إمكانيات تخصيص النموذج نفسه.
هذه الميزات تؤدي إلى تحسين ملحوظ في جودة النتائج، خاصة في المهام المعقدة والمتعددة الخطوات. لكن المشكلة، كما توضح، لا تقف عند حدود الأداء، بل تمتد إلى خلق فجوة حقيقية بين المستخدمين.
في البيئات الأكاديمية، قد يتمكن الطالب من إنجاز بحث أكثر عمقاً وسرعة بفضل هذه الأدوات، بينما يبقى آخر محدوداً بإمكانيات أقل. ومع الوقت، قد يتحوّل هذا الفارق إلى عدم تكافؤ في النتائج والفرص.
وتظهر هذه الفجوة بوضوح في تجارب طلاب الدراسات العليا؛ فميرا فتوني، وهي باحثة في مرحلة الماجستير في كلية العلوم بالجامعة اللبنانية، تقول إن أحد أساتذتها طلب منها الاشتراك في النسخة المدفوعة من “تشات جي بي تي”، رغم أنها لا تعمل ولا تملك دخلاً خاصاً، مما اضطرها إلى طلب المساعدة من شقيقها لتغطية الكلفة. بالنسبة إليها، كان الاشتراك وسيلة لتحسين جودة البحث وتسريع إنجازه.
في المقابل، تقول يارا عبد النبي، وهي طالبة ماستر في كلية العلوم بالجامعة اللبنانية أيضاً، إن إمكاناتها المادية لا تسمح لها بدفع كلفة النسخة المتقدمة من “تشات جي بي تي”، فتكتفي بالنسخة المجانية رغم محدوديتها. وتوضح أن كلفة الاشتراك تشكل عبئاً لا تستطيع تحمّله، مع أنها كانت تفضّل امتلاك النسخة المدفوعة لأنها تساعدها أكثر في دراستها، سواء من حيث السرعة أو الدقة أو القدرة على إنجاز مهام بحثية أكثر تعقيداً.
الذكاء الاصطناعي والعدالة الرقمية
انطلاقاً من هذا الواقع، تطرح فرشوخ مسألة الوصول إلى الذكاء الاصطناعي بوصفها قضية عدالة رقمية. فهي تميّز بين مستويين: مستوى أساسي يجب أن يكون متاحاً للجميع، خصوصاً في مجالات مثل التعليم والخدمات العامة، ومستوى متقدم يمكن أن يبقى ضمن نماذج مدفوعة، شرط ألا يتحول إلى أداة إقصاء.
تستحضر هنا نموذج تطور الإنترنت والاتصالات، حيث لم تعد هذه الخدمات ترفاً، بل جزءاً من الحقوق الأساسية المرتبطة بالحياة اليومية والعمل والمعرفة. وترى أن الذكاء الاصطناعي يسير في الاتجاه نفسه، مما يستدعي التفكير في سياسات تضمن الحد الأدنى من الوصول العادل.
لم تعد هذه الخدمات ترفاً، بل جزءاً من الحقوق الأساسية المرتبطة بالحياة اليومية والعمل والمعرفة
في المقابل، يرى رونالد نجم، مستشار وخبير دولي في الأمن السيبراني والذكاء الاصطناعي، أن النقاش حول النسخ المجانية والمدفوعة يحتاج إلى تمييز بين مسؤولية الشركات الخاصة ومسؤولية الجهات العامة. فشركات مثل “أوبن إيه آي” (OpenAI)، المالكة لـ ChatGPT، أو غوغل (Google)، المالكة لـ Gemini، هي شركات خاصة تهدف في النهاية إلى تحقيق الربح من خدماتها. لذلك، تقدّم نسخاً مجانية محدودة تتيح للمستخدمين اختبار الأدوات والتفاعل معها، لكنها ليست ملزمة، بحسب رأيه، بتوفير الخدمات المتقدمة مجاناً للجميع تحت عنوان العدالة الرقمية.
ويضيف نجم أن معالجة الفجوة لا يمكن أن تقوم فقط على مطالبة الشركات بإلغاء الكلفة، بل يجب أن تشمل دور الحكومات والمؤسسات الرسمية والمنظمات غير الحكومية. فهذه الجهات، بحسب قوله، تستطيع الاستثمار في إتاحة أدوات الذكاء الاصطناعي للطلاب والباحثين والفئات الأقل قدرة، عبر اشتراكات مؤسسية أو برامج دعم. لكنه يشير في الوقت نفسه إلى أن هذا الخيار يحمل كلفة مرتفعة، ولا بد من وجود جهة تتحملها بوضوح.
تطبيقات تغيّر شكل المعرفة والعمل
تشير فرشوخ إلى مجموعة من التطبيقات التي باتت تؤثر بشكل مباشر في مجالات مختلفة:
- في البحث العلمي: تُستخدم أنظمة توليد الفرضيات وتحليل البيانات للتسريع من الاكتشافات، إضافة إلى نماذج تعاونية تسمح بمشاركة المعرفة عبر مؤسسات مختلفة.
- في معالجة اللغة: باتت الترجمة الفورية وتحليل النصوص وفهم السياقات الثقافية أدوات يومية في الإعلام والتعليم والأعمال.
- في البرمجة: تطوّرت أنظمة قادرة على إعادة كتابة الشيفرات، واكتشاف الثغرات، وتحويل اللغة الطبيعية إلى تعليمات برمجية.
هذه التحولات لا تغيّر فقط طريقة العمل، بل تعيد تشكيل مفهوم المعرفة نفسها، ومن يمتلك أدوات إنتاجها.
من التحيّز إلى فقدان المهارات
إلى جانب الفرص، تبرز مجموعة من المخاطر التي تتطلب الانتباه. من أبرزها التحيّز الخوارزمي، حيث تعكس النماذج البيانات التي دُرّبت عليها، بما فيها من انحيازات اجتماعية أو ثقافية. كذلك، قد يؤدي الاستخدام غير المنضبط إلى انتهاك حقوق الملكية الفكرية، أو إنتاج معلومات غير دقيقة تُستخدم لاحقاً كمصادر.
كما تشير فرشوخ إلى مخاطر أمنية، مثل استغلال هذه الأدوات لاستخراج بيانات حساسة، أو إدخال أوامر خبيثة داخل الأنظمة. إضافة إلى ذلك، يبرز خطر أقل وضوحاً لكنه عميق التأثير: الاعتماد المفرط، الذي قد يؤدي إلى تراجع المهارات التحليلية لدى المستخدمين.
في نهاية المطاف، لا يتمحور النقاش حول الذكاء الاصطناعي بحد ذاته، بل حول من يمتلك القدرة على استخدامه بفعالية. فإذا كانت هذه الأدوات قد أصبحت شرطاً للإنتاج المعرفي والمهني، فإن حصر أفضلها ضمن نطاق مدفوع قد يكرّس شكلاً جديداً من عدم المساواة.
هذا التقرير بدعم من:
















