أذهلت المغنية والممثلة ليلي ألين الجمهور بتفاصيلها عن كيفية تحول الذكاء الاصطناعي (AI) إلى وسيط غير متوقع في علاقتها مع زوجها السابق، ديفيد هاربور. في مقابلة حديثة، اعترفت بأنها لجأت إلى ChatGPT لتنظيم حججها خلال الخلافات الزوجية، بدءًا من مناقشات حول الأطباق المتسخة وحتى الصراعات المالية. هذه الطريقة، التي تبدو وكأنها من سيناريو خيال علمي، تكشف عن حقيقة أوسع نطاقًا: لقد أصبح الذكاء الاصطناعي ينفذ في العلاقات الإنسانية بطرق تتحدى الأخلاقيات والخصوصية وحتى مفهوم الأصالة.
بينما استخدمت ألين التكنولوجيا لتجنب المواجهة العاطفية، تكشف حالات أخرى عن مخاطر مثيرة للقلق. في فرنسا، فقدت سيدة أكثر من مليون ريال برازيلي بعد أن تورطت مع ذكاء اصطناعي متنكرًا في هيئة براد بيت. هذه الخدعة، التي تبدو سخيفة بقدر ما هي حقيقية، توضح كيف يمكن لأنظمة اللغة الأساسية أن تتلاعب بالمشاعر الإنسانية. يحذر يوفال نوح هراري، المؤرخ ومؤلف كتاب “سابينس”: “ChatGPT هو أميبا متطورة. إذا كان هذا يخدع الناس، تخيل ما ستفعله الإصدارات المتقدمة”.
الحد الفاصل بين الوساطة والتلاعب
تم تجاوز اختبار تورينج، الذي تم إنشاؤه في الخمسينيات من القرن الماضي للتمييز بين البشر والآلات، ليس من خلال روبوتات بشرية، بل من خلال خوارزميات نصية. أَلّمت ألين، دون علمها، هاربور بنسخة منزلية من هذا الاختبار. اعترفت قائلة: “كنت ألصق الرسائل التي تم إنشاؤها بواسطة الذكاء الاصطناعي لتجنب التآكل”. والنتيجة؟ مناقشات أكثر تنظيماً، ولكنها أقل أصالة. يتساءل خبراء في علاج الأزواج: هل تفويض النزاعات إلى الآلات يقوي العلاقات أم يُفرغها من معناها؟
هنا، يعمل الذكاء الاصطناعي كمرآة مشوهة للإبداع البشري. يجادل هراري بأنه، تمامًا كما يعيد المؤلفون دمج أفكار الكتب، فإن أدوات مثل ChatGPT تُلخص البيانات الموجودة. يكمن الاختلاف في السرعة: فقد حل AlphaFold، وهو ذكاء اصطناعي حائز على جائزة نوبل في الكيمياء، في ساعات مشكلة استغرقت عقودًا من البحث البشري – التنبؤ بطي البروتينات.
من العيادة إلى ساحة المعركة: الاستخدام المزدوج للذكاء الاصطناعي
بينما تُسرّع المختبرات اكتشاف الأدوية المضادة للسرطان وألزهايمر، تستثمر الحكومات في تطبيقات أقل نبلاً. يهدف مشروع ستارجيت، وهو مبادرة أمريكية بقيمة 5 مليارات دولار أمريكي، إلى تطوير “ذكاء اصطناعي عام” لأغراض عسكرية واستراتيجية. يحذر إريك شميدت، الرئيس التنفيذي السابق لشركة جوجل والمستشار الحالي للدفاع: “لا توجد حكومة مستعدة للتأثير الجيوسياسي لهذه التكنولوجيا”.
السخرية واضحة. نفس الذكاء الاصطناعي الذي يمكنه علاج الأمراض يُغذّي أيضًا الطائرات بدون طيار ذاتية الحكم. في الولايات المتحدة، تستخدم التجارب الأولية الخوارزميات لطرد الموظفين الحكوميين والموافقة على السياسات – وهو سيناريو كافكاوي حيث تكون القرارات غير قابلة للتفسير بالنسبة للعقول البشرية. يقارن هراري قائلاً: “إنها أشبه بالحكم من قبل محكمة من الآلات لا يفهمها أحد”.
المستقبل غريب (ولا يأتي من الفضاء)
يقترح هراري مصطلحًا مزعجًا: “الذكاء الغريب”. ليس من خارج الأرض، بل من الأنظمة التي تعالج المعلومات بطريقة مختلفة تمامًا عن أدمغتنا. هذه “الوكلاء غير العضوية”، كما يسميها، تؤثر بالفعل في كل شيء من الزيجات إلى الأسواق المالية.
الخطر، حسب قوله، ليس تمردًا على طراز “المدمر”، بل بيروقراطية قمعية يديرها الذكاء الاصطناعي. تخيل الضرائب التي تُحسب بواسطة خوارزميات لا يمكن التشكيك فيها أو القوانين التي تكتبها آلات لا يفهمها حتى مبتكروها. يُعرّفها بأنها “استعمار بطيء وصامت”.
ثمن الراحة
قد تكون ليلي ألين قد وجدت حلاً عمليًا للخلافات الزوجية، لكن قصتها هي صورة مصغرة للمعضلات العالمية. ومع قيامنا بإنزال القرارات الحميمة والسياسية على الآلات، نحتاج إلى أن نسأل: إلى أي مدى نحن على استعداد للتخلي عن الاستقلالية البشرية باسم الكفاءة؟ ستحدد الإجابة ليس فقط العلاقات، ولكن مستقبل النوع البشري.