الحرب والسلام في زمن الروبوتات والذكاء الاصطناعي
متابعة – عراق 24
هل أضعت ثقتك بالإنسانية؟.. تقفز هذه الجملة إلى الأذهان وكأنها تحمل عبئا كبيرا من الشك والتساؤل، فمع تصاعد الأحداث والمآسي في العالم، ومع انكشاف الحقائق المريرة، بدأت ثقتنا بالإنسانية تتلاشى تدريجيا.
ففي قطاع غزة، يواجه أكثر من 2.3 مليون شخص معاناة الإبادة والجوع. ومع توقف بعض الحكومات عن دعم وتمويل وكالة الأمم المتحدة لغوث وتشغيل اللاجئين الفلسطينيين “أونروا”، تظهر حقيقة قاسية، وهي أن الإنسانية قد خذلت الإنسان بجدارة، وحان الوقت كي نزرع آمالنا في أجسام غير بشرية تسمى اليوم الذكاء الاصطناعي.
في ظل هذه الأحداث المأساوية، يبرز لنا الذكاء الاصطناعي كموضوع مثير للجدل، إذ تتقاطع الأفكار بين خوف ورجاء، وتبرز الحاجة الماسة إلى فهم طبيعة الذكاء الاصطناعي وكيفية عمله. فعبر هذا الفهم فقط، يمكننا معرفة ما إذا كان سيتخذ زمام المبادرة يوما ما لقيادة البشرية نحو مستقبل مشرق، أم أنه سيكون الآلية التي تعجل زوالنا.
التكنولوجيا أم الإنسان؟
لعب دمج الذكاء الاصطناعي في العمليات العسكرية دورا محوريا في النزاعات الأخيرة، وأدى إلى ارتفاع كبير في عدد الضحايا المدنيين.
إن عسكرة الذكاء الاصطناعي لها آثار خطيرة على الأمن العالمي، بما في ذلك تطوير ونشر أنظمة الأسلحة الفتاكة التي يمكن أن تعمل دون تدخل بشري، مما يزيد من الهيمنة العسكرية للدول المتقدمة تقنيا على دول العالم الثالث.
فالأسلحة التقليدية التدميرية أصبحت أكثر ذكاء بواسطة الذكاء الاصطناعي، والذي يُستخدم -على سبيل المثال لا الحصر- في تحليل لقطات الطائرات بدون طيار، وغيرها من مصادر المعلومات الاستخباراتية لتحديد الأهداف، والصواريخ الموجهة، وأنظمة التجسس المتقدمة.
وهذا ما فعلته إسرائيل لاختيار وتوسيع أهدافها في الحرب على غزة، فقد استخدمت نظام ذكاء اصطناعي يسمى “حبسورا” الذي سرّع وتيرة الاستهداف، إذ يعمل النظام على استخراج كميات كبيرة من المعلومات من مصادر مختلفة مثل بيانات الاتصالات ولقطات الطائرات وبيانات المراقبة، ومن ثم تحليلها وإنتاج توصيات للأهداف.
ويثير هذا التحول تساؤلات عميقة عن تأثير التقدم التقني على جوهر الإنسانية وتقديرها للحياة، فاستخدام الذكاء الاصطناعي في الحرب يعد قضية معقدة تتطلب دراسة متأنية لآثارها الإنسانية والقانونية والأخلاقية والأمنية.
وهو ما يعيد التساؤل عن تأثير التكنولوجيا المدمرة على إنسانيتنا، فهل هي التي تشوه إنسانيتنا، أم أن التشوه متأصل فينا والتكنولوجيا مجرد مرآة تعكسه؟
بناء آلة أخلاقية
ترى الأستاذة المشاركة في مركز بيركمان كلاين للإنترنت والمجتمع في جامعة هارفرد الدكتورة باولا ريكورتي، أن الذكاء الاصطناعي المهيمن أصبح قوة قادرة على ارتكاب العنف من خلال ثلاث عمليات معرفية هي: تحويل البيانات عبر الاستخراج وانتزاع الملكية، والخوارزمية عبر الوساطة والحوكمة، والأتمتة عبر العنف وعدم المساواة وإزاحة المسؤولية.
ووجدت باولا أن هذه الآليات المعرفية المفصلة تؤدي إلى تطوير أنظمة تصنيف عالمية تعزز عدم المساواة المعرفية والاقتصادية والاجتماعية والثقافية والبيئية بين شعوب العالم المختلفة.
ومع أن هذه الأمور تمثل تحديا أمام تبني الإنسان للذكاء الاصطناعي، إلا أنه يبدو في المقابل أن هناك فرصة للتقدم والتحسين في جميع جوانب الحياة البشرية بنظر عالم الحاسوب والمخترع راي كورزويل الذي اشتهر بعمله في مجال الذكاء الاصطناعي وتوقعاته عن مستقبل التكنولوجيا.
فكورزويل -وهو أحد المتفائلين بمستقبل الذكاء الاصطناعي- يرى أن هذه التكنولوجيا ستكون المفتاح لمواجهة التحديات العالمية الكبرى التي تهدد الإنسانية، كما يرى كورزويل أن الاندماج مع هذا الذكاء الاصطناعي سيفتح أبوابا لا محدودة من الإمكانيات، مما يسمح لنا بتجاوز القيود البيولوجية التي تعوقنا على تعزيز قدراتنا بشكل هائل.
ويعتقد كورزويل أنه من خلال التحسينات المستمرة في الذكاء الاصطناعي، ستصبح الإنسانية قادرة على تحقيق إنجازات لم يسبق لها مثيل، وذلك عبر توظيف القدرات العقلية الفائقة التي يمكن أن يوفرها هذا النوع من التكنولوجيا.
لا شك في أن تنبؤات كورزويل تبعث الأمل في مستقبل الخلاص البشري، غير أن المعادلة الحتمية في زيادة القدرة البشرية تقابلها زيادة في الضرر وقوة التدمير. لكن تبقى القيم الأخلاقية هي الرادع الأكثر فعالية لتجنب الصراعات المدمرة، لهذا يجب أن يكون هناك وعي بماهية القيم الإخلاقية.
هل هناك آلة واعية؟
شهد الذكاء الاصطناعي تطورا كبيرا في السنوات الماضية في مجالات كثيرة مثل تطوير الصناعات، ومعالجة اللغة الطبيعية، وتشخيص الأمراض وإنتاج العلاجات، وصناعة الروبوتات.. ومع ذلك لا تزال هذه التطورات ضمن خارطة الذكاء الاصطناعي الضيق، ومفهوم الوعي يظل موضوعا معقدا ومثيرا للاهتمام.
وكان الفيلسوف جون سورل وضع أساس حجته الفكرية التي تسمى “الغرفة الصينية” لتحدي الادعاء بأن الآلة التي تستطيع تشغيل برنامج من خلال أوامر معينة ستمتلك “عقلا” أو “وعيا” مشابها للإنسان، والهدف من التجربة هو تفنيد الآراء الداعمة لإمكانية وجود ذكاء اصطناعي قوي وواع.
في الغرفة الصينية يُفترض وجود شخص لا يفهم اللغة الصينية داخل غرفة مغلقة، ولكن من خلال قواعد مكتوبة، يستطيع الشخص الرد بالصينية بحيث يجزم الشخص الموجود خارج الغرفة أن الشخص الذي في الغرفة يفهم الصينية.
وكما هو الشخص في داخل الغرفة لا يعرف الصينية حتى لو استطاع الإجابة على أسئلة بهذه اللغة، فإن الحاسوب الذي يستخدم برنامج محادثة ذكية بالصينية أيضا لا يفهم المحادثة، ويستنتج إجاباته بناء على قواعد وبرمجيات لا تمنح القدرة على فهم الصينية أو إضفاء العقل أو الوعي على الحاسوب.
وبغياب الوعي يفتقد الذكاء الاصطناعي الحالي القدرة على قيادة البشرية أو القضاء عليها، وتعتبر مهمة تطويرها إلى الأفضل صعبة.
ويوافق عالم الذكاء الاصطناعي يان ليكون هذا التوجه، فيرى أن الذكاء الاصطناعي ليس ذكيا حتى مثل الحيوانات الأليفة، وأن الأنظمة الحالية بعيدة عن الوصول إلى بعض مظاهر الوعي التي تجعلها ذكية.
فالآلة ليس لها إدراك بماهية العنف، وليس لديها الأسباب لممارسته، لكن الإنسان وظفها لتخدم مصالحه العاثرة بطرق قد لا تعي الآلة نفسها أنها تمارس عنفا تجاه آخرين. فإذا كنا خائفين من محاربة الذكاء الاصطناعي للبشر، ألا يجب علينا أن نتوقف نحن بدورنا عن ممارسة هذا العنف؟
ولكن حتى لو تمكن الذكاء الاصطناعي الحالي من الحصول على الوعي، فهناك أمر أهم يجب أن يمتلكه حتى يتمكن من التفوق على البشر والسيطرة عليهم؛ وهو الدافع.
دوافع الآلة
الدوافع ويعبر عنها بالإنجليزية بالكلمة (motivation) وهي كلمة لاتينية مشتقة من كلمة (mover) وتعني التهيؤ للفعل أو الحركة، وهي عملية فسيولوجية تهيئ الجهاز العضوي إلى العمل النفسي وتلبيه الحاجات والرغبات والدوافع، وهي محركات لسلوك الكائن الحي تجعله يتحرك وينشط باتجاه هدف ما. وبحسب شدة الدافع قد تجعله يستمر في ذلك النشاط أو يوقفه أو يزيد من فاعليته.
في كتابه “لماذا تحارب الأمم.. دوافع الحروب في الماضي والمستقبل”، يحدد ريتشارد نيد ليبو أربعة دوافع أساسية لبدء الحروب بين الدول، وتشمل هذه الدوافع الخوف من تهديد آخر، أو المصلحة الاقتصادية والسياسية والإستراتيجية، أو الرغبة في الحفاظ على المكانة وتعزيزها، أو الانتقام من الظلم. وتعتبر هذه الدوافع عوامل مهمة في تشكيل الديناميكيات السياسية الدولية اليوم.
والذكاء الاصطناعي يمكن أن يكون له تأثير في تشكيل السياقات السياسية التي قد تؤدي في النهاية إلى النزاعات أو الحروب، لكنه لا يمتلك دوافع بحد ذاته، حيث يعتبر مجرد أداة تقنية تعتمد على البرمجة والبيانات لتنفيذ المهام واتخاذ القرارات.
فعلى الرغم من أنه يمكن تطوير أنظمة ذكاء اصطناعي متقدمة قادرة على ترشيح القرارات في السياقات العسكرية، فإن القرار النهائي يظل خاضعا للإرادة البشرية.
أنسنة الآلة
في سعيهم الدؤوب لتطوير التكنولوجيا، حاول العلماء جعل الروبوتات تشبه الإنسان، وبحثوا عن طرق لتجسيد الحركات والسلوكيات العضوية للبشر في هذه الآلات. وعلى الرغم من التقدم الكبير الذي حققوه، فإن التحديات لا تزال تواجههم في محاولات أنسنة الروبوتات.
فقد عملوا على وضع صفات بشرية في هيئتها بغرض تقريب مظهرها من المظهر البشري حتى وإن كانت لا تخدم وظيفتها، مثل حركة رمش العين. ولكن رغم الجهود المبذولة، فإن الروبوتات لا تزال تفتقر إلى الدقة والنعومة في تقليد تلك الحركات.
وقد بذل الكتاب والفلاسفة محاولات مستميتة لزرع العواطف البشرية في الروبوتات في كتاباتهم، بحيث يصبح لها قلب ينبض بالحياة. وبينما عجزت هذه المحاولات عن إدخال شرارات الحب والغضب والانتقام في دواخل هذه الآلات، فإنها رسمت تصنيفا غريبا في مخيلة البشر لهذه الآلات بين آلات خيرة وآلات شريرة.
إن تطور التكنولوجيا قدم خطوات كبيرة، لكن الروبوت الذي لا يستطيع حتى رفع عينه كالبشر، يبقى بعيدا عن القدرة على خلق جميع تلك التفاعلات الكيميائية الغامضة التي تولّد المشاعر الإنسانية.
شريعة أوزيموف
وعلى سبيل الفلسفة الروائية، وَضعت قصص الروائي الأميركي وأحد أشهر مفسري العلوم إسحاق أوزيموف؛ المبادئ الأخلاقية للذكاء الاصطناعي، والتي اختصرها في ثلاثة قوانين أساسية:
- الأول: أنه لا يجوز للروبوت أن يؤذي إنسانا أو يسمح للإنسان أن يصاب بأذى.
- الثاني: أنه يتحتم على الروبوت أن يطيع الأوامر التي يعطيها له البشر إلا إذا كانت هذه الأوامر تتعارض مع القانون الأول.
- الثالث: يجب أن يحمي الروبوت وجوده طالما أن هذه الحماية لا تتعارض مع القانون الأول أو الثاني.
وعلى الرغم من أن شريعة أوزيموف للروبوتات هي تعليمات مدمجة في قصصه وليست قوانين علمية، فإنها كانت ذات أهمية كبيرة في المناقشات المتعلقة بالتكنولوجيا، وقام العديد من العلماء البارزين في الذكاء الاصطناعي بمناقشتها ومنهم راي كورزويل ، ومؤسس شركة “آي روبوتس”، ورودني بروكس، وعالم الروبوتات دانيال ويلسون.
واليوم بدأنا نشهد ونلمس الضرر الفعلي للذكاء الاصطناعي وخصوصا في مجال الأعمال العسكرية. ومع تزايد هذه التحديات، يصبح من الضروري تبني إطار قانوني وأخلاقي صارم للتحكم في استخدامات الذكاء الاصطناعي وضمان استخدامه بطريقة تضمن العدالة واحترام الحقوق الأساسية للأفراد؛ كل الأفراد.
لا شك في أن الآلات أصبحت تشبهنا أكثر فأكثر، ليس فقط في شكلها، بل أيضا في طريقة تفكيرها. وهنا ربما مكمن الخطر، إذ يصعب تمييزها عنا وعن أفكارنا ورغباتنا.
فربما الخوف من الآلات لدى البشر ليس بسبب رغبتها الظاهرة في إيذاء البشرية، ولكنه بسبب محاولاتنا لجعلها تشبهنا أكثر. وهذا إن دل على شيء فإنما يدل على أن البشر يخافون بشكل أكبر من تلك الكيانات التي تشبههم، والتي -بسبب تعقيداتها- قد تنطلق في مسار لا يمكن التنبؤ به، إما للخلود أو للفناء.
المصدر : الجزيرة + مواقع إلكترونية
بـ15 ثانية فقط… أداة جديدة لتوليد الصوت عبر الذكاء الاصطناعي
متابعة – عراق 24 عرضت شركة «أوبن إيه آي»، مبتكرة برنامج المحادثة الشهير «تشات جي بي …