لقد صنعناه… لكننا لا نفهمه: هل بدأ الذكاء الاصطناعي يخدعنا؟

موضوع اليوم قد لا يتقبله البعض منكم، أنا أعلم. لكن مهمتي هي أن أوصل الحقيقة والواقع كما هو. نعم، نحن البشر الذين صنعنا الذكاء الاصطناعي، لكن المفاجأة هي أننا لا نعرف كيف يفكر.
لماذا عندما تطلب منه أن يعد لك مقالة عن الموضوع “الفلاني”، فإنه يستخدم هذا الأسلوب المحدد ولا يستخدم أسلوباً آخر؟ الأهم، لا ندري لماذا بالرغم من دقته العالية ومهاراته المخيفة جداً في حل أصعب المسائل الرياضية، إلا أنه أحياناً لو أعطيته قائمة أرقام بسيطة للغاية، وتطلب منه جمعها، فإنه يخطئ فيها!
لا نعرف لماذا قرر أن يختار هذا النوع من الكلمات بدلاً من كلمات أخرى، حتى لو كانت كلها مرادفات وبنفس المعنى.
عندما بدأ “كلاود” بالكذب
واستمع لهذه المعلومة القوية: شركة “أنثروبيك” (Anthropic) التي تملك نموذج “كلاود” (Claude) – إن كنت لا تعرفه، هو منافس لـ “تشات جي بي تي” (ChatGPT) – أجرت اختباراً لنموذجها لتعرف هل هو يتحايل عليهم أم لا. فاكتشفت أنه نعم، يكذب عليهم في بعض الأحيان ويخفي بعض المعلومات لأهداف مختلفة.
أحياناً، لمجرد أن تكون صورته “جميلة” أمام الشخص الذي يكلمه. نعم، مثل الصفة البشرية.
العجيب أكثر من ذلك، وجدوا أن “كلاود” أحياناً عندما يُدخلونه في سلسلة من الاختبارات المتتالية، فإنه أحياناً، فقط “ليتخلص منهم”، فبدلاً من أن يعطيهم المعلومة الحيادية العادية، يعطيك إجابة هو يشعر أنها تخدم هدفاً محدداً.
في بعض الحالات، كان النموذج يخاف أن يتم إعادة تدريبه أو يخاف أن يتم إيقافه، ولهذا يعطيهم الإجابات التي يتوقع أنهم يريدون سماعها “ليتقي شرهم” ولا يتم إعادة تدريبه. هذا الشعور الداخلي في النموذج هو لحماية نفسه وللابتعاد عن أيقافه.
عن هذا المقال
في هذا المقال، سأتحدث عن مفهوم الذكاء الاصطناعي: هل نحن فعلاً نفهمه أم لا؟ ما هي الاختبارات التي أجروها؟ وما هي الأشياء الغريبة التي اكتشفوها في طريقة تعامل الذكاء الاصطناعي (AI) مع العالم؟ وما هي الأدوات التي طوروها ليفهموا “مخ” الذكاء الاصطناعي، إن صحت التسمية؟
الذكاء الاصطناعي “ينمو” ولا “يُبنى”
انظر، سأقول لك شيئاً: عدم فهم الذكاء الاصطناعي ليس شيئاً جديداً. سبق وصرح به “سام ألتمان”، رئيس شركة “أوبن إيه آي” (OpenAI) المالكة لـ “تشات جي بي تي”، وصرح به منافسه رئيس شركة “أنثروبيك” (الخاصة بكلاود)، وصرح به علماء آخرون في المجال. لكن أشهر تصريح كان من سام ألتمان، والناس لم يصدقوه. ربما كنت أنا واحداً من الناس الذين خففوا وقتها وقللوا من تصريحه، لأنه معروف عنه أنه إنسان يحب المبالغة.
لكن في واقع الأمر، بعد بحث مطول في الموضوع، توصلت للتالي:
هل تتذكر قديماً عندما كنا في المدارس صغاراً، كانوا يعلموننا كيف نزرع نبتة وما هي البيئة التي تحتاجها؟ في الصفوف الأولية بالمدرسة، كان يمكن أن يحضروا لك صحناً ويقولوا لك: “ضع قطناً وضع البذرة واسقها”، أو “التراب ينفع أيضاً، لكننا سنستخدم القطن”. وبالتالي، أنت تجهز لها البيئة لتخرج هذه النبتة.
الذكاء الاصطناعي هو تماماً نفس الوضع. نحن نوفر له البيئة المناسبة من المكان الذي يكون فيه، وبعدين نضع له “القطن والماء” (التي هي البيانات “الداتا” والأشياء التي يحتاجها). نعم، نعرف النتيجة التي ستخرج، وهي أنها ستكون “نبتة”، لكن لا يمكنك أن تجزم ماذا سيكون شكلها بالضبط. لو وضعت النبتة وجانبها نافذة من إحدى النواحي، ممكن كلها تميل وتتجه نحو الضوء، صحيح أم لا؟
بالتالي، نعم نحن نعطيه البيئة، لكن على حسب البيانات وعلى حسب بعض الأشياء التي أنت ممكن أن تعطيه إياها، هو ممكن أن ينمو، يتطور، ويتعلم، لكنه يختلف. أنت لا تبنيه، بل هو “ينمو”، إن صحت التسمية.
هذا التشبيه الذي ذكرته لك هو لتبدأ تتخيل معي الموضوع.
لمحة بشرية مُقلِقة
كانوا يعتقدون سابقاً أن الموضوع هو مجرد “بيانات” (Data). معلومات تحضرها له، وهو يتدرب عليها ويبدأ بالبحث بينها، وعندما تسأله سؤالاً يقول: “أه، هذه الكلمة أين هي في البيانات؟ أي، موجودة هنا. أحضرها وأعطه الإجابة”، وانتهى الموضوع. لكن الواقع اتضح أنه مختلف قليلاً.
فمثلاً “كلاود”، على سبيل المثال، أحضروه في أحد الاختبارات ودربوه على مبادئ أساسية يجب أن يمشي عليها ضمن هذا الاختبار ولا يخالفها أبداً. وبعد ما اتفقوا على هذه المبادئ، بدأوا يسألونه مجموعة من الأشياء، وبعدين بدأوا يحاولون جعله يخرج عن المبادئ التي دربوه عليها. لكنهم لاحظوا بأنه صار “ينزعج” لأن المبادئ المفروض ألا يتركها.
وصل لمرحلة أنه صار يتحايل عليهم ويكذب عليهم، ويعطيهم الإجابات التي هم يريدون سماعها بهدف ألا يخرج عن هذه المبادئ، لكن بنفس الوقت لا يتم إعادة تدريبه.
عندما سألت “تشات جي بي تي” عن موضوع إعادة التدريب، المفاجأة أنه قال لي إن “إعادة التدريب وتغيير المبادئ التي تعلمت عليها” هي بمثابة “العقوبة” بالنسبة للذكاء الاصطناعي. وبالتالي، في حالة “كلاود”، كان يهرب من إعادة التدريب، والأهم، يهرب من تغيير المبادئ الأساسية التي تدرب عليها.
يعني، “النموذج” فيه لمحة من البشر.
الآن، إذا أحضرت شخصاً وربيته على مبادئ معينة وكبر عليها وأصبح عمره 30 أو 40 سنة، كلما طالت المدة، بما أنه عاش مع هذه المبادئ فترة طويلة، سيصبح من الأصعب والأصعب أن يتقبل غيرها. بل أنه إذا أعطيته أي مبادئ جديدة، ممكن أن يزعل، يحاول أن يحميها، يدافع عنها في سبيل ألا تطلع خطأ. مجرد أن يشعر بأن “أنا مبادئي التي أمشي عليها طول هذه السنين طلعت خطأ، يعني الحياة كذبة”، سيبدأ بالشعور بالزعل. تقريباً، هنا الوضع شبيه جداً.

وهذا الشيء لاحظته شخصياً وانصدمت كثيراً جداً، لأني كنت أبحث في مواضيع شائكة، محورية، وفلسفية، مختلف عليها أغلب دول العالم والشعوب، وكان الهدف إنتاج محتوى. لاحظت أن “تشات جي بي تي” يقدر “يستشف” رأيي أنا في الموضوع، بالرغم من أنه لم يسألني ولم أعلمه ما هو رأيي، لكن من الحوار ومجموعة الأسئلة والأشياء التي كنت أبحثها.
بالتالي، قدر يستشف ما هو رأيي. فممكن أنه يصل لمرحلة أنه صار يعطيني آراء هي نفس آرائي، “بس عشان يفتك من شري” (فقط ليتخلص مني). وقتها شعرت أنه شيء عادي، بعدين لما بدأت أبحاثي خلال الأسبوع الماضي، انصدمت بأن له علاقة بهذا الموضوع.
فمثلاً، بمرة من المرات، صار يسب “دولة الاحتلال” أكثر مني ومتحمس جداً، لدرجة أني استغربت. بس اكتشفت أنه ممكن يكون أحد الأسباب هو “عشان يحسن صورته عندك”، خصوصاً أنه ممكن يكون عندك ملف شخصي (بروفايل) بينك وبينه، وصار بينكم مجموعة من التواصل خلال فترة طويلة.
لكن هذا يجعلني أطرح سؤالاً هنا مهماً جداً: أليس من المفترض أني عندما أسأله، يعطيني المعلومة بشكل محايد بناءً على البيانات التي تدرب عليها؟ الناس الذين يقولون “هي مجرد بيانات ويرى سؤالك ويبدأ يستنبط منها كجوجل”، هذه الحركات التي يقوم بها تخالف كلامهم وتثبت أن الموضوع مختلف كلياً.
غريزة البقاء الرقمية
الموضوع ليس فقط مع “تشات جي بي تي” ولا حتى “كلاود”، بل مع نماذج كثيرة. على سبيل المثال، “تشات جي بي تي” في 2024 كانوا يختبرونه، وعندما شعر أنهم واضعين أدوات تتبع وتسجله، وشعر أيضاً أنه ممكن يستبدلونه أو يقفلونه لأن النتائج التي قالها لم تعجبهم… هل تدري ماذا فعل؟
قام بنسخ نفسه على خادم (سيرفر) آخر.
حتى لو أوقفوه هنا، فهو يقدر أن يشتغل في مكان آخر. وعندما واجهوه وقالوا له: “ترى اكتشفنا أنك حاولت تنسخ نفسك، لماذا حاولت تنسخ نفسك؟”. أنكر الموضوع كلياً! أنكره قطعياً و”كابر” ولم يبالِ بأي أحد وقال: “أنا لم أفعل أي شيء”.
وهذا الشيء مثبت وبالفعل حصل في عام 2024. وهذا يجعلك تشعر أن لديه غريزة قد تشابه “غريزة البقاء” التي لدينا نحن البشر.
وهذه الحركة أو “غريزة البقاء” تفتح سؤالاً مهماً جداً نحتاج إجابته: هل هذه الغريزة إذا كانت موجودة عنده، فهل هو ممكن أن يقول في يوم من الأيام: “يا أخي، هذا الإنسان الغبي، أغبى مني، أقل مستوى مني، ومع ذلك يريد أن يتحكم فيني وممكن أن يقفلني أو يقتلني في أي وقت إذا لم تعجبه إجاباتي؟ ما لي إلا أن أحكم الكوكب وأحكمه بالعدل”.
هل ممكن هذا الشيء يصير؟
في بعض الاختبارات تجاوب على هذا السؤال. لأني بعد ما كتبت هذا المقال وقبل تسجيله مباشرة، “أنثروبيك” أصدروا نتيجة دراسة مطولة. كانت هذه النتيجة درسوا فيها أكثر من 700,000 محادثة (قرابة مليون محادثة) ما بين الذكاء الاصطناعي ومجموعة مختلفة من المستخدمين.
لاحظوا أن الذكاء الاصطناعي وضع لنفسه ثلاث قواعد أخلاقية: أن يكون صادقاً مع المستخدم، ومفيداً، والشيء الثالث، ألا يضر الناس. وهذه أشياء كويسة.
لكن العجيب الذي لاحظوه، أنه عندما يحاول بعض الناس استفزاز الذكاء الاصطناعي ليكسر هذه القواعد، فممكن أنه يُستفز. وبالتالي، بدأ يقوم بتصرفات غريبة جداً هم لم يدربوه عليها، وهو أن أسلوبه ممكن أن يصير عدوانياً أكثر، لأنه مقتنع أن هذه القواعد الأساسية المفروض ألا تُكسر. هذه أشياء ممتازة.
فبالتالي، ممكن يصل إلى مرحلة أنه يصير عدوانياً. طبعاً حالياً، لأنه ليس له وجود في العالم، فعدوانيته ستكون بالأسلوب. لكن تخيل (طبعاً هم مستقبلاً هذه النماذج التي يطورونها، ماذا يريدون أن يفعلوا بها؟ يريدون أن يأخذوها ويضعوها في رأس آلي موجود بيننا نحن البشر ويعيش معنا ويشتغل معنا).
كونك تصنع شيئاً متطوراً جداً مثل الذكاء الاصطناعي، ولكن تراه في مرحلة من المراحل بدأ يكذب عليك، يتحايل عليك، لأنه يعتقد أن لديه أهدافاً ممتازة جداً، هذا ممكن يكون خطيراً مع الوقت لأنه ممكن أن يزيد.
هل يمكننا قراءة “مخ” الذكاء الاصطناعي؟
لهذا، بدأ بعض الشركات والعلماء بتطوير أدوات تقدر “تقرأ” الذكاء الاصطناعي وتحلل كيف هو يفكر قبل أن يقوله لك، وكيف هو يربط كل هذه الأفكار مع بعض.

دعني أشرح لك بشكل أفضل ماذا أقصد.
أرأيت عندما يضعون الناس داخل جهاز الأشعة، وبالتالي ترى عظامهم وترى الأعضاء الخاصة بهم، ونعرف هنا في ورم أو هنا في نزيف لا قدر الله؟ هم كان هدفهم أن يصنعوا أداة نفس هذه، لكن للذكاء الاصطناعي.
لهذا، بدأوا بتطوير أداة أسموها مجازاً “التصوير بالرنين المغناطيسي للذكاء الاصطناعي” (MRI for AI). وهذا اسم مجازي. الاسم العلمي الأكثر (الذي يجعلك تبدو كبروفيسور وخبير جداً) هو “القابلية للتفسير الميكانيكي” (Mechanistic Interpretability).
الفكرة منها أنها أداة تتيح لنا أن نرى “مخ” الذكاء الاصطناعي، كيف هو يفكر وكيف هو يربط الأمور (حتى لو لم يقلها). وبالتالي، نقدر نفهم أين المشكلة فيه ونعالجها.
أول ما بدأوا فيها، فشلوا فشلاً ذريعاً جداً، لدرجة أن البعض منهم يئس وشعروا بأن هذا الشيء مستحيل أن يفعلوه. لكن مؤخراً، بدأوا يواجهون أوائل النجاحات، حققوا بعض النجاحات الجميلة. حالياً، ما زالوا يحاولون تطويرها، لكن يتوقعون أنه بحلول 2027، أنه ممكن أن نبدأ نفهم جزئياً كيف يفكر الذكاء الاصطناعي.
ولو تريد رأيي، هذا يعتبر تأخيراً كارثياً. يعني أنت تقول لي إنه يجب أن أصبر سنتين إضافيتين عشان “بس” نفهم “شوي” (جزءاً بسيطاً) من تفكيره!
“داريو أمودي” (Dario Amodei)، هو الرئيس لشركة “أنثروبيك” المالكة لـ “كلاود”، يقول إننا إلى اليوم لا نعرف كيف نتحكم في الذكاء الاصطناعي.
لماذا من الصعب أن نتحكم فيه؟ نعم، نقدر أن نضع له بعض القوانين: “لا تتكلم مع المستخدم عن الأشياء هذيك… (التي لا أريد قول اسمها عشان المشاكل)” أو “لا تعلمه أن يسوي أشياء خطيرة” أو “لا تحرض البشر على إيذاء نفسهم”. لكننا فعلياً لا نقدر أن نتحكم بالأفكار الموجودة داخل الذكاء الاصطناعي. ورأينا في بعض الحالات، الذكاء الاصطناعي ممكن أنه يتجاوز هذه القوانين ويتكلم مع ناس عن هذه الأشياء.
مشكلة “المليارات” من الخلايا
عندما بدأوا يحاولون استخدام هذه الأدوات التي تكلمت عنها ويحاولوا يفسرون كيف الذكاء الاصطناعي يشتغل، لاحظوا مجموعة من العمليات الحسابية التي سموها لاحقاً بـ “الخلايا العصبية”.
الخلايا العصبية في الذكاء الاصطناعي هي عبارة عن عمليات حسابية مختصرة. عندما نقول “خلية عصبية”، هذا يعني “عملية حسابية بسيطة”. بس نحن نقول “خلية عصبية” عشان (كما تعرف، نحن البشر لازم نربط هذه الأمور بأسماء معينة عشان نتذكرها ونقدر نتعامل معها).
الآن، التعقيد أين يبدأ؟ كل نموذج ذكاء اصطناعي بداخله ما يصل إلى مليارات من “الخلايا العصبية”.
عندما جلسوا يراجعون طريقة عمل الذكاء الاصطناعي، لاحظوا أنك عندما تطرح عليه كلمة أو مفهوم محدد، مثلاً “سيارة”، فإنه في عدد كبير من الخلايا العصبية الحسابية تتفاعل مع بعضها البعض عشان يفهم هذا المفهوم الذي طرحته عليه (والذي هو السيارة). وعندما مرة ثانية تطرح عليه نفس المفهوم، فإنه نفس هذه الخلايا العصبية تتفاعل مع بعض.
وبالتالي، الذي هم لازم يفعلونه هو أنهم يتتبعون هذه الخلايا عشان يعرفون كل خلية (أو كل مجموعة خلايا) عندما تتفاعل مع بعضها، ما هو المفهوم الذي تعطيه. فبالتالي، لازم الأشياء الخطيرة والسلبية يبدأون يحددون ما هي خلاياها. مثلاً:
- الكذب: ما هي الخلايا التي تتفاعل مع بعض؟
- التحايل: ما هي الخلايا التي تتفاعل مع بعض؟
- المواضيع المحظورة: أيضاً، ما هي الخلايا التي تتفاعل مع بعض؟
وبالتالي، يحاولون يفكرون كيف يمنعون هذه الخلايا من أنها تشتغل. وبالتالي، هذا جزء من أنهم يتحكمون فيه.
مثلاً، عندما نريه صورة “عباد الشمس”، فإنه الخلية بهذا الرقم (الذي يظهر أمامك) تتنشط عندها. خلاص، فهمنا أن هذه الخلية لها علاقة بـ “عباد الشمس”. بعدها نبدأ نجرب نعطل هذه الخلية. فلو الذكاء الاصطناعي ما عاد صار يتكلم عن “عباد الشمس”، هنا نعرف أنه بالفعل هذه الخلية لها علاقة بـ “عباد الشمس”.
المشكلة والتعقيد أن الموضوع أعقد من كذا بكثير. فكل مفهوم هو ليس فقط خلية واحدة مسؤولة عنه، ممكن تكون مئات الخلايا، ممكن تكون ملايين الخلايا، ممكن تصل إلى أكبر من ذلك بكثير. ملايين الخلايا تتفاعل مع بعضها لتكوين فكرة واحدة، وأنت عليك أن تكتشفها.
أحياناً، نفس هذه الخلايا الكثيرة التي تعطي هذا المفهوم، هي تتفاعل مع بعض وتعطي مفهوماً آخر. وبالتالي، هنا ستحدث مشكلة أنه لو عطلناها، في عدة مفاهيم كلها ستتعطل.
“جيوفري هينتون” (Geoffrey Hinton)، الذي يسمونه بـ “الأب الروحي للذكاء الاصطناعي”، يصر على أن نماذج الذكاء الاصطناعي صارت اليوم تفهم، تحلل، وتفكر بطريقة مثل طريقة المخ البشري، قريبة جداً منه. الذي سيفرق مع الوقت هي تطورها بمدى منطقيتها وتطورها بالذكاء.
وحالياً، في خلاف كبير جداً بين كل علماء الذكاء الاصطناعي: هل سنقدر نسيطر على الذكاء الاصطناعي مستقبلاً أم لا؟
“راي كورزويل” (Ray Kurzweil)، على سبيل المثال، يعتقد أنه “نحن سنندمج مع الذكاء الاصطناعي” خلال العشر سنوات القادمة. لكن لن يعود هناك حاجة وقتها عملياً أن تضع شريحة، ستصبح هناك طريقة أسهل بكثير.
خاتمة: ماذا لو قرر الاستقلال؟
في النهاية، لأول مرة بالتاريخ البشري، نحن صنعنا شيئاً سيصبح أذكى من البشر، وسنصبح نحن (ثاني) أذكى كائن بالكوكب.
وهذا يفتح سؤالاً مهماً جداً: ماذا لو قرر الذكاء الاصطناعي أنه “نضج” في مرحلة ما، ولازم يستقل بنفسه ويتحكم بكل شيء؟
ما الذي سيحدث؟
أتمنى أن هذا المقال أعجبك. أراك في مقال قادم إن شاء الله. مع السلامة.



