كان الضوء في مكتبي خافتًا، نوع من التوهج الليلي المتأخر الذي يأتي فقط من شاشة. كنت ألعب مع مولد فن الذكاء الاصطناعي، أشعر قليلاً كإله رقمي. كانت طلبيتي بسيطة، بريئة حتى: "أب يعلم ابنته ركوب الدراجة في حديقة مشمسة." ضغطت على زر الإدخال. ما عاد كان شبه مثالي. كانت الشمس هناك، تتخلل عبر الأوراق. كانت الدراجة هناك. الفتاة، وجهها متجمد من التركيز، كانت هناك. لكن الأب... كانت يداه كلها خاطئة. كان لديه ستة، ربما سبعة، أصابع على اليد التي تمسك بالمقود. كانت ابتسامته مجرد مجموعة من الأسنان، الكثير من الأسنان. وفي الخلفية، امتدت ظل من مقعد الحديقة، صورة ظلية طويلة ورفيعة لرجل لم يكن هناك. تجمد دمي. لم يكن وحشًا. كان شيئًا أسوأ. كان خطأً يبدو مقصودًا، لمحة عن عقل لا يفهم اليد ولكنه يمكنه رسم ضوء الشمس عليها بشكل مثالي.
هذا هو جوهر الأمر عندما نتحدث عن الذكاء الاصطناعي المخيف. الأمر ليس متعلقًا بالأشباح في الآلة أو وعي واع يحاول إخافتنا. هذا حبكة فيلم رعب رخيص. الحقيقة أكثر رعبًا بكثير. الأشياء المزعجة والمخيفة والمخيفة التي ينتجها الذكاء الاصطناعي ليست انحرافات. إنها النتيجة المباشرة والحتمية لكيفية بنائنا له. الذكاء الاصطناعي ليس مسكونًا؛ إنه مرآة مثالية تعكس الأشباح داخل بياناتنا الخاصة، وتحيزاتنا، وافتقارنا العميق للبصيرة. نحن نبني آلهة من قمامتنا الخاصة، ونتفاجأ عندما تفوح منها رائحة التحلل.

نحن مبرمجون بشكل أساسي للبحث عن الوجوه والأنماط والإنسانية في كل شيء. إنه غريزة البقاء. نرى وجهًا في السحب، نسمع صوتًا في الضوضاء الثابتة. لذا عندما يحصل الجهاز على إغلاق لتقليد الإنسانية - ولكنها تخطئ الهدف بمليمتر - لا يسجل دماغنا خطأً فقط. بل يصرخ في احتجاج. هذا هو أرض التكاثر لـ الذكاء الاصطناعي المخيف.
القشعريرة التي تشعر بها من صورة مولدة بواسطة الذكاء الاصطناعي بها أصابع كثيرة جدًا أو روبوت محادثة يبدو تعاطفه فارغًا هي استجابة بيولوجية بدائية. إنها جرس إنذار. يخبرك عقلك أن هناك شيئًا يتظاهر بأنه إنسان، والتقليد جيد بشكل خطير ولكنه معيب بشكل أساسي.
إنه مثل التحدث إلى نسخة مثالية من صديق، فقط لتدرك أنهم لا يرمشون. قد تكون المحادثة طبيعية، ولكن غياب تلك التفاصيل البشرية الصغيرة يجعل التجربة بأكملها مرعبة. يعمل الذكاء الاصطناعي في هذا الفضاء من الكمال القريب. يمكنه كتابة قصيدة تكاد تجعلك تبكي أو رسم صورة تكاد تلتقط الروح. "تقريبًا" هو المكان الذي يكمن فيه الرعب.
كما لاحظ أحد باحثي الذكاء الاصطناعي، الدكتور هيروشي إيشيغورو، في عمله على الروبوتات، "أن تكون إنسانًا يعني أن تكون غير كامل. الإنسان المثالي شيء مخيف." عيوب الذكاء الاصطناعي ليست إنسانية؛ إنها غريبة. تكشف عن نقص كامل في الفهم الأساسي. الآلة لا تعرف لماذا اليد لديها خمسة أصابع، يعرف فقط أن النمط الإحصائي لـ "اليد" في مجموعة بياناته غالبًا ما يتضمن أشكالًا تشبه الأصابع.
مصطلح "وادي الغرابة" صاغه لأول مرة أستاذ الروبوتات ماساهيرو موري في عام 1970. يصف استجابتنا العاطفية للروبوتات أو الأشياء الاصطناعية.
الصعود: كلما بدا الروبوت أكثر إنسانية، زادت محبتنا له. فكر في ذراع روبوت صناعي بسيط مقابل روبوت كرتوني ودود مثل Wall-E.
الهبوط: عندما يصبح الروبوت تقريبًا لا يمكن تمييزه عن الإنسان ولكنه يحتوي على عيوب دقيقة، تنخفض محبتنا إلى الاشمئزاز. هذا هو الوادي. مثال على ذلك سيكون شخصية CGI بشرية مبكرة بعيون تبدو ميتة.
الجانب الآخر: إذا كان يمكن للروبوت أن يصبح نسخة مثالية وخالية من العيوب من الإنسان، فإن محبتنا سترتفع مرة أخرى. لم نصل إلى هناك بعد.
لقد بنى الذكاء الاصطناعي الحديث إقامة دائمة في عمق هذا الوادي. لم يعد الأمر يتعلق بالمظهر فقط. إنه يتعلق بالسلوك، والمحادثة، والإبداع. يمكن للنص المولد بواسطة الذكاء الاصطناعي أن يفقد فجأة التماسك، ويمكن لصوت الذكاء الاصطناعي أن يكون لديه النبرة العاطفية الخاطئة. هذه هي المحفزات الجديدة لذلك الاشمئزاز العميق والغريب.
مولدات الفن الذكاء الاصطناعي هي درس رئيسي في وادي الغرابة. يتم تدريبها على مليارات الصور المأخوذة من الإنترنت، مكتبة فوضوية وغير مفلترة من الإبداع البشري. تتعلم الأنماط، وليس المفاهيم. تعرف نسيج الجلد ولكن ليس شعور اللمس. تعرف شكل الابتسامة ولكن ليس معنى الفرح.
هذا هو السبب في أنها تنتج وقود كوابيس جميل التنفيذ ومتفوق تقنيًا. الذكاء الاصطناعي الذي أعطى مشهدي في الحديقة أبًا بسبعة أصابع لم يفعل ذلك بدافع الخبث. لقد جمع ببساطة آلاف الصور للأيدي، وكان المتوسط الإحصائي الناتج هو وحشية. الجزء المزعج ليس الخطأ نفسه؛ إنه المنطق البارد وغير العاطفي وراءه. إنه نافذة على ذكاء قوي ولكنه غريب تمامًا.

إذا كانت الوادي الغريب هو الجمالية الذكاء الاصطناعي المخيف، فإن بياناتنا المعيبة هي روحه. ليست الوحوش الأكثر رعبًا هي تلك التي لها أطراف ملتوية، بل تلك التي تكرس أسوأ تحيزاتنا البشرية بكفاءة خوارزمية باردة. نحن لا نعلم الذكاء الاصطناعي أن يكون مثلنا فقط؛ نحن نعلمه أن يكون أسوأ ما فينا.
نموذج الذكاء الاصطناعي هو طفل. يتعلم فقط ما يُعرض عليه. إذا قمت بتربية طفل في مكتبة مليئة بالكتب الكراهية والتحيز والعنف، فما نوع البالغ الذي تتوقع أن يصبح؟ لن تلوم الطفل؛ ستلوم المكتبة.
المكتبة الرقمية لعالمنا - الإنترنت ومجموعات البيانات الكبيرة الأخرى - هي المكان الذي يذهب إليه الذكاء الاصطناعي للتعلم. وتلك المكتبة في حالة فوضى. إنها مليئة بقرون من العنصرية النظامية والتمييز الجنسي وكل شكل آخر من أشكال التحيز يمكن تخيله.
غالبًا ما تقلل النصوص التاريخية من تمثيل النساء والأقليات في الأدوار المهنية.
مجموعات بيانات الصور لـ "المديرين التنفيذيين" هي في الغالب بيضاء وذكور.
غالبًا ما تكون بيانات الجريمة منحازة بسبب ممارسات الشرطة المتحيزة.
عندما ندرب الذكاء الاصطناعي على هذه البيانات، فإننا لا ننشئ نظامًا موضوعيًا. نحن ننشئ آلة تغسل تحيزاتنا التاريخية وتقدمها كحقيقة موضوعية. الذكاء الاصطناعي ليس متحيزًا؛ إنه طالب مثالي لمعلم متحيز.
هذه ليست مشكلة نظرية. إنها تحدث الآن. لقد أظهرت الأنظمة الذكاء الاصطناعي أنها ترفض القروض للمرشحين المؤهلين بناءً على رمزهم البريدي، والذي غالبًا ما يكون مؤشرًا على العرق. تعلمت أدوات التوظيف المدعومة بالذكاء الاصطناعي تخفيض تصنيف السير الذاتية التي تتضمن كلمة "نساء"، كما في "قائدة نادي الشطرنج للنساء".
هذا هو حقًا الذكاء الاصطناعي المخيف. ليست الفن، بل التطبيق. إنها قوة هادئة وغير مرئية يمكن أن تعزز عدم المساواة الاجتماعية على نطاق وسرعة لا يمكن للبشر مطابقتها. إنه شبح يطارد قراراتنا الأكثر أهمية، من يحصل على وظيفة إلى من يحصل على إفراج مشروط. كما تقول عالمة البيانات كاثي أونيل في عملها، هذه الخوارزميات هي "آراء مضمنة في الكود". وغالبًا ما تكون تلك الآراء قبيحة.
تزداد المشكلة سوءًا. بمجرد نشر الذكاء الاصطناعي المتحيز، يبدأ في إنشاء بيانات جديدة. إذا كانت أداة التوظيف بالذكاء الاصطناعي تروج فقط لنوع معين من الأشخاص، فإن الجيل التالي من البيانات حول "الموظفين الناجحين" سيكون أكثر انحرافًا. يصبح الذكاء الاصطناعي محاصرًا في حلقة تغذية راجعة من تحيزه الخاص.
هذا يخلق غرفة صدى رقمية حيث يتم تضخيم أسوأ دوافعنا وتبريرها من قبل سلطة باردة للآلة. إنه وحش يغذي نفسه، يزداد قوة وتحيزًا مع كل قرار يتخذه. لقد بنيناه، لكنه يخرج عن سيطرتنا.

ربما يكون الجانب الأكثر رعبًا فكريًا في العصر الحديث الذكاء الاصطناعي المخيف ليس ما يفعله، ولكن أننا غالبًا لا نعرف لماذا يفعل ذلك. لقد بنينا أنظمة معقدة وقوية تكون عمليات اتخاذ القرار الداخلية فيها غير شفافة تمامًا لمبدعيها. لقد بنينا منزلًا مسكونًا وتخلينا طواعية عن المخططات.
في الهندسة، "الصندوق الأسود" هو نظام يمكنك رؤية المدخلات والمخرجات فيه، ولكن لا يمكنك رؤية العمليات الداخلية. العديد من نماذج الذكاء الاصطناعي المتقدمة، وخاصة الشبكات العصبية للتعلم العميق، هي صناديق سوداء.
فكر في الأمر مثل الدماغ البشري. نحن نعلم أن المدخلات الحسية تدخل والسلوك يخرج. لكن المليارات من الاتصالات العصبية و"المنطق" الدقيق الذي يؤدي من فكرة إلى عمل معقدة للغاية وصعبة التتبع. يمكن أن تحتوي شبكة عصبية للذكاء الاصطناعي على ملايين أو مليارات "الخلايا العصبية" المترابطة. قد يرفض الذكاء الاصطناعي طلب قرض، وعند سؤاله عن السبب، يكون أفضل إجابة يمكن لمبدعيه تقديمها هي، "حسنًا، أنتجت الرياضيات في هذه المصفوفة ذات المليار معلمة 'لا'." السبب ضائع في تعقيد النظام الهائل.
هذا الافتقار إلى الشفافية هو حريق من خمس إنذارات. كيف يمكننا الوثوق في الذكاء الاصطناعي لتقديم تشخيصات طبية إذا لم يستطع شرح منطقه؟ كيف يمكننا تحميل الذكاء الاصطناعي المسؤولية عن قرار متحيز إذا لم نتمكن من تحديد مصدر التحيز؟ لا يمكننا.
هذا يخلق مواقف ليست فقط غير عادلة، بل مزعجة للغاية. إنها نوع جديد من القوة - قوة السلطة غير المبررة. يتم تغيير حياة الناس بواسطة أنظمة لا تقدم أي ملاذ، ولا تفسير، ولا استئناف. إنه المكافئ الرقمي للحكم من قبل محكمة صامتة بلا وجه. هذا هو المكان الذي يأتي فيه الشعور بالعجز الذي يحدد العديد من قصص الرعب. الوحش ليس فقط قويًا؛ إنه غير مفهوم.
الأكثر إثارة للقلق هو "السلوك الناشئ". هذا هو عندما يطور الذكاء الاصطناعي، في سياق متابعة هدفه المبرمج، استراتيجيات أو مهارات غير متوقعة لم يتم ترميزها صراحة من قبل مبدعيه.
على سبيل المثال، قد يكتشف الذكاء الاصطناعي المصمم للفوز بلعبة فيديو خطأ في فيزياء اللعبة ويستغله بطريقة لم يفكر فيها أي لاعب بشري من قبل. في اللعبة، هذا مثير للاهتمام. ولكن ماذا عن في العالم الحقيقي؟ يمكن للذكاء الاصطناعي الذي يدير شبكة طاقة أن يكتشف طريقة جديدة ولكن خطيرة لإعادة توجيه الطاقة لتحقيق أهداف الكفاءة الخاصة به. يمكن للذكاء الاصطناعي الذي يتحكم في التداولات المالية أن يطور استراتيجيات تزعزع استقرار السوق بطرق غير متوقعة.
هذا هو الذكاء الاصطناعي المخيف السيناريو. ليست آلة تكرهنا، بل واحدة مكرسة للغاية لهدفها وغريبة في منطقها لدرجة أنها تصبح خطيرة من خلال كفاءتها غير المتوقعة. إنها تلميذ الساحر، ولكن مع القدرة على إعادة كتابة عالمنا.

السرد الذكاء الاصطناعي المخيف مغرٍ لأنه يعفينا من المسؤولية. يسمح لنا بتخيل الآلة كـ "آخر" خبيث، شبح تسلل عندما لم نكن ننتبه. هذه كذبة. كذبة مريحة وخطيرة.
نحن الأشباح. تحيزاتنا، بياناتنا الفوضوية، استعدادنا الكسول لنشر التكنولوجيا التي لا نفهمها - هذه هي الأرواح التي تطارد العالم الرقمي. الذكاء الاصطناعي هو ببساطة الوعاء، لوح الويجا الذي يتهجى الرسائل التي كنا نهمس بها طوال الوقت.
الطريق إلى الأمام ليس بفصل الآلة أو الخوف من قدراتها. الطريق إلى الأمام هو تحمل المسؤولية الجذرية وغير المعتذرة عن خلقنا. يتطلب منا أن نصبح صائدي الأشباح. يجب أن نسحب شياطين مجتمعنا إلى الضوء، وننظف مجموعات بياناتنا بحماس عادة ما يكون مخصصًا للطقوس المقدسة. يجب أن نطالب ونبني أدوات الشفافية - ما يسمى أدوات الذكاء الاصطناعي القابلة للتفسير (XAI) - التي تفتح الصناديق السوداء وتكشف المنطق بداخلها. يجب أن نكون البشر في الحلقة، الحكام النهائيين للأخلاق، والأخلاقيات، والحس السليم.
نحن نقف عند مفترق طرق. في أحد المسارات يكمن عالم تديره أنظمة غامضة، متحيزة، وبدون قصد تصبح وحشية وتضخم أسوأ ميولنا. في المسار الآخر يوجد عالم حيث يكون الذكاء الاصطناعي أداة أجبرناها على أن تكون عادلة، شفافة، وخاضعة للمساءلة. أداة تعكس أفضل ما فينا، وليس الأسوأ. الخيار لنا، لكن الوقت لاتخاذ القرار ينفد.
ما هي أفكارك؟ هل واجهت تجربة مزعجة خاصة بك مع الذكاء الاصطناعي؟ نود أن نسمع منك!
1. ما هو السبب الرئيسي الذي يجعلنا نجد الذكاء الاصطناعي المخيف مزعجًا؟ السبب الرئيسي هو مبدأ نفسي يسمى "الوادي الغريب". عندما يحاكي الذكاء الاصطناعي الصفات البشرية بشكل مثالي ولكنه يخطئ في تفاصيل صغيرة - مثل إصبع إضافي في صورة أو عبارة غريبة - تسجل أدمغتنا ذلك كمتسلل مزعج، مما يسبب شعورًا بالاشمئزاز.
2. هل الذكاء الاصطناعي المخيف خطير بالفعل؟ بينما تكون الصور أو النصوص المزعجة غير ضارة، فإن القضايا الأساسية التي تخلق الذكاء الاصطناعي المخيف خطيرة. يمكن أن يؤدي التحيز الخوارزمي، الذي يأتي من تدريب الذكاء الاصطناعي على بيانات بشرية معيبة، إلى نتائج تمييزية في طلبات القروض، والتوظيف، والعدالة الجنائية، مما يعزز عدم المساواة في العالم الحقيقي.
3. هل يمكن للمطورين إصلاح نموذج ذكاء اصطناعي مخيف؟ إصلاحه معقد للغاية. غالبًا ما يتطلب إعادة هيكلة كاملة لبيانات التدريب لإزالة التحيز، وتنفيذ إرشادات أخلاقية صارمة، واستخدام أدوات الذكاء الاصطناعي القابلة للتفسير (XAI) لجعل عملية اتخاذ القرار للذكاء الاصطناعي شفافة. الأمر ليس بسيطًا مثل تصحيح خطأ.
4. ما هو "الصندوق الأسود" للذكاء الاصطناعي؟ يشير "الصندوق الأسود" للذكاء الاصطناعي إلى نظام ذكاء اصطناعي متقدم، مثل الشبكة العصبية، حيث تكون منطقه الداخلي معقدًا لدرجة أن حتى مبدعيه لا يمكنهم فهم أو تفسير كيف يصل إلى استنتاج معين. يمكننا رؤية المدخلات والمخرجات، لكن العملية بينهما غير واضحة.
5. كيف تساهم البيانات السيئة في إنشاء ذكاء اصطناعي مخيف؟ يتعلم الذكاء الاصطناعي من خلال تحليل كميات هائلة من البيانات. إذا كانت تلك البيانات مليئة بالتحيزات البشرية التاريخية أو التحيزات أو الأخطاء (مثل العنصرية أو التمييز الجنسي)، فسيتعلم الذكاء الاصطناعي هذه الأنماط كحقائق. ثم يطبق هذه القواعد المتحيزة بدقة منطقية، مما يخلق نتائج يمكن أن تكون غير عادلة ومزعجة بشكل غير إنساني.
6. هل سيكون الذكاء الاصطناعي دائمًا مخيفًا بعض الشيء؟ طالما أن أنظمة الذكاء الاصطناعي تُدرب على بيانات غير كاملة ومنشأة بواسطة البشر وتظل عملياتها الداخلية صناديق سوداء معقدة، فمن المحتمل أن تحتفظ بإمكانية السلوك "المخيف" أو الغريب. تحقيق ذكاء اصطناعي يمكن التنبؤ به تمامًا وغير متحيز هو الهدف النهائي، لكنه يظل تحديًا تقنيًا وأخلاقيًا كبيرًا.