الذكاء الاصطناعي مفتوح المصدر والتحقق عبر البلوكشين: الطريق إلى مستقبل موثوق

Open-source AI

اكتشف كيف يجمع الذكاء الاصطناعي مفتوح المصدر مع تقنية البلوكشين لضمان الشفافية والتحقق وبناء مستقبل أكثر أمانًا وموثوقية، ودور البلوكشين في بناء ذكاء اصطناعي موثوق

في السنوات الأخيرة، شهد العالم قفزات غير مسبوقة في مجال الذكاء الاصطناعي، لكن شهر يناير 2025 شكّل علامة فارقة، حيث تجاوز تطبيق DeepSeek’s R1 تطبيق ChatGPT ليصبح التطبيق المجاني الأكثر تحميلًا على متجر Apple الأمريكي. كان هذا الإنجاز مثيرًا ليس فقط بسبب النجاح الجماهيري، بل لأن DeepSeek، على عكس منافسيه، يعتمد على نموذج مفتوح المصدر. أي أن شيفرته متاحة للجميع، ويمكن دراستها، ومشاركتها، واستخدامها لتطوير نماذج جديدة.

هذا التحول أثار موجة حماس في الأوساط التقنية، دافعًا الصناعة نحو مزيد من الشفافية والانفتاح. وفي فبراير 2025، عززت شركة Anthropic هذا الاتجاه بإطلاق نموذج Claude 3.7 Sonnet، وهو نموذج هجيني للاستدلال مفتوح جزئيًا للمعاينات البحثية. هذه التطورات دفعت بالنقاش حول الذكاء الاصطناعي القابل للوصول والشفاف إلى الواجهة، لكنها في الوقت ذاته سلطت الضوء على وهم خطير: أن الذكاء الاصطناعي مفتوح المصدر أكثر أمانًا بالضرورة من النماذج المغلقة.


الوعد والإشكالية في الذكاء الاصطناعي المفتوح المصدر

نماذج مثل DeepSeek’s R1 أو وكلاء البرمجة من Replit تُجسد القوة الكامنة في التكنولوجيا المتاحة. على سبيل المثال، زعمت DeepSeek أنها طورت نظامها بتكلفة 5.6 مليون دولار فقط — أي ما يقارب عُشر تكلفة نموذج Llama من Meta. أما Replit، فقد أطلقت وكيلًا يعمل بنموذج Claude 3.5 Sonnet، يتيح لأي شخص (حتى من دون مهارات برمجية) إنشاء برمجيات باستخدام أوامر لغوية طبيعية.

التأثير هنا كبير جدًا: باتت الشركات الصغيرة، والشركات الناشئة، والمطورون المستقلون قادرين على استخدام هذه النماذج لبناء تطبيقات ذكاء اصطناعي متخصصة، بسرعة أكبر، وتكلفة أقل، وجهد أقل. وهذا قد يفتح الباب أمام ولادة اقتصاد ذكاء اصطناعي جديد حيث تكون إمكانية الوصول إلى النماذج هي العامل الحاسم.

ولكن، وعلى الرغم من أن الإتاحة للجميع تُعتبر واحدة من أبرز مزايا المصدر المفتوح، إلا أنها أيضًا تفتح الباب أمام مخاطر كبيرة. فالنموذج الذي كلف تطويره 5.6 مليون دولار مثل DeepSeek، وإن كان ي democratize الابتكار، إلا أنه يُعرّض أيضًا لمخاطر سيبرانية. إذ يمكن للجهات الخبيثة تعديل هذه النماذج لصناعة برمجيات خبيثة أو استغلال الثغرات بسرعة، قبل أن يتمكن المطورون من سدها.

“اطلع على: الشراكة بين الصين وروسيا في الذكاء الاصطناعي


لماذا لا تكفي الشفافية وحدها؟

الذكاء الاصطناعي مفتوح المصدر

من المهم الإشارة إلى أن الذكاء الاصطناعي المفتوح المصدر لا يفتقر بالضرورة إلى الحماية. بل إنه قائم على إرث طويل من الشفافية، الذي دعم استقرار التكنولوجيا لعقود. سابقًا، اعتمد المهندسون على مبدأ «الأمن من خلال الإخفاء»، أي إخفاء التفاصيل التقنية خلف جدران الملكية الخاصة. ولكن مع مرور الوقت، أثبت هذا النهج فشله؛ فقد ظهرت الثغرات، وغالبًا ما كان أول من اكتشفها هم الفاعلون السيئون.

أما المصدر المفتوح، فقد غيّر قواعد اللعبة من خلال كشف الشيفرة للرقابة العامة، مما ساعد على تقوية النظام بفضل التعاون المجتمعي. ومع ذلك، سواء كنا نتحدث عن نماذج مفتوحة أو مغلقة، لا يمكن اعتبار أي منهما محصنًا بطبيعته ضد الأخطاء أو سوء الاستخدام.

وعلى المستوى الأخلاقي، لا تختلف النماذج المفتوحة كثيرًا عن نظيراتها المغلقة. كلاهما يمكن أن يعكس التحيزات أو يُنتج مخرجات ضارة بناءً على بيانات تدريبية متحيزة. الشفافية لا تمحو هذه المخاطر، لكنها تخلق مساحة للرقابة الجماعية — ميزة تفتقر إليها النماذج المملوكة — لكنها لا تزال بحاجة إلى آليات واضحة لضمان النزاهة.

“اقرأ أيضًا: الذكاء الاصطناعي يخلق طبقة جديدة من رواد الأعمال


التحقق: مفتاح الثقة في الذكاء الاصطناعي

إذا أردنا أن يكون الذكاء الاصطناعي مفتوح المصدر أكثر موثوقية، فنحن بحاجة إلى شيء إضافي: التحقق. بدون هذا التحقق، يمكن تعديل النماذج (سواء المفتوحة أو المغلقة)، واستخدامها في تضليل المعلومات أو تحريف القرارات المؤتمتة التي تؤثر على حياتنا اليومية. ليست الإتاحة وحدها هي المهمّة؛ بل يجب أيضًا أن تكون النماذج قابلة للتدقيق، وغير قابلة للتلاعب، وخاضعة للمساءلة.


دور البلوكشين في بناء ذكاء اصطناعي موثوق

هنا يأتي دور تقنية البلوكشين. بفضل طبيعتها الموزعة، يمكن للبلوكشين أن يقدم شهادة بأن نماذج الذكاء الاصطناعي لم تتعرض للتعديل، وأن بيانات التدريب الخاصة بها شفافة، وأن مخرجاتها يمكن التحقق منها مقارنة بمعايير معروفة.

على عكس التحقق المركزي، الذي يعتمد على الثقة بجهة واحدة، يوفر البلوكشين حماية لامركزية قائمة على التشفير (Encryption)، تمنع الجهات الخبيثة من التلاعب خلف الكواليس. كما يُعيد توزيع الرقابة، بدلًا من تركها في يد طرف ثالث، وينشئ حوافز لمشاركة أوسع — على عكس الوضع الحالي، حيث يساهم الأفراد في بناء مجموعات بيانات ضخمة من دون إذن أو مكافأة، ثم يُطلب منهم الدفع مقابل استخدام النتائج. عبر تخزين النماذج على الشبكة أو عبر بصمات رقمية مشفرة، يمكن تتبُّع أي تعديل علنيًا، مما يُمكّن المطورين والمستخدمين من التأكد من أنهم يعملون على النسخة الصحيحة.

حماية البيانات والخصوصية

من خلال تسجيل مصادر بيانات التدريب على البلوكشين، يمكن إثبات أن النماذج تعتمد على مصادر ذات جودة وغير متحيزة، مما يقلل من مخاطر التحيزات الخفية أو المُدخلات المضللة. كما يمكن للتقنيات التشفيرية أن تتحقق من صحة المخرجات دون الحاجة إلى كشف البيانات الشخصية الحساسة التي يشاركها المستخدمون، وبالتالي تحقيق توازن بين الخصوصية والثقة.

“قد يهمك: شركات التكنولوجيا الكبرى كبيرة جدًا لدرجة أنها لن تفوز بمستقبل الذكاء الاصطناعي”


الذكاء الاصطناعي مفتوح المصدر ليس النهاية

بينما يُعتبر الذكاء الاصطناعي مفتوح المصدر خطوة مهمة نحو الشفافية، إلا أنه ليس الوجهة النهائية. إن مستقبل الذكاء الاصطناعي وأهميته لا يقوم فقط على الإتاحة، بل على الثقة. والثقة لا يمكن أن تكون مفتوحة المصدر؛ إنها تحتاج إلى أن تُبنى، وتُتحقق، وتُعزَّز في كل مستوى من منظومة الذكاء الاصطناعي.

إذا أرادت الصناعة أن تحقق قفزات حقيقية، فعليها أن تُركز على طبقة التحقق ودمج الذكاء الاصطناعي الآمن. وفي الوقت الراهن، يُعد إدخال الذكاء الاصطناعي إلى البلوكشين واستغلال تقنياته الرهان الأكثر أمانًا لبناء مستقبل موثوق.

في ختام هذه المقالة يمكن القول أن إن الجمع بين الذكاء الاصطناعي مفتوح المصدر والتحقق عبر البلوكشين ليس مجرد حل تقني؛ إنه حجر الأساس لبناء منظومة ذكاء اصطناعي تُعلي من شأن الشفافية، والمساءلة، والثقة. لا يكفي أن نفتح الشيفرة؛ بل يجب أن نُفعّل أنظمة تحقق قوية تضمن النزاهة وتحمي حقوق المستخدمين والمساهمين. المستقبل هنا لا يتعلق فقط بالتقنية، بل بكيفية استخدامها لخدمة البشر بأمان وعدل.

اترك رد