الاخبارتقنية

لماذا يريد رواد التكنولوجيا إيقاف عجلة تطور الذكاء الإصطناعي؟

لماذا يريد رواد التكنولوجيا إيقاف عجلة تطور الذكاء الإصطناعي؟

تريد الشخصيات الرئيسية في الذكاء الإصطناعي تعليق تدريب أنظمة الذكاء الاصطناعي القوية وسط مخاوف من تهديد البشرية.لقد وقعوا خطابًا مفتوحًا يحذرون فيه من المخاطر المحتملة، ويقولون إن السباق لتطوير أنظمة الذكاء خارج عن السيطرة. رئيس Twitter Elon Musk هو من بين أولئك الذين يريدون إيقاف تدريب هذا الذكاء فوق قدرة معينة لمدة ستة أشهر على الأقل. ووقع أيضًا ستيف وزنياك المؤسس المشارك لشركة Apple وبعض الباحثين في DeepMind.

slider 2 1

أطلقت شركة OpenAI، الشركة التي تقف وراء ChatGPT، مؤخرًا GPT-4 – وهي تقنية حديثة، أثارت إعجاب المراقبين بقدرتها على القيام بمهام مثل الإجابة على أسئلة حول الأشياء في الصور. الرسالة من Future of Life Institute وموقعة من قبل كبار التكنولوجيا، تريد وقف التطوير مؤقتًا على هذا المستوى، محذرة في رسالتهم من المخاطر المستقبلية، التي قد تشكلها أنظمة أكثر تقدمًا. “أنظمة الذكاء الإصطناعي ذات الذكاء التنافسي البشري يمكن أن تشكل مخاطر عميقة على المجتمع والإنسانية”، كما تقول.

ما هو معهد Future of Life؟

معهد Future of Life هو منظمة غير ربحية تقول إن مهمتها هي “توجيه التقنيات التحويلية بعيدًا عن المخاطر الشديدة والواسعة النطاق ونحو إفادة الحياة”.

إيلون ماسك، مالك تويتر والرئيس التنفيذي لشركة تيسلا للسيارات، مُدرج كمستشار خارجي للمنظمة.

يقول الخطاب إن أنظمة الذكاء الإصطناعي المتقدمة بحاجة إلى التطوير بعناية، ولكن بدلاً من ذلك، “شهدت الأشهر الأخيرة أن مختبرات الذكاء الإصطناعي تخوض سباقًا خارج نطاق السيطرة لتطوير ونشر عقول رقمية أكثر قوة لا أحد – ولا حتى منشئوها – يمكن أن يفهم أو يتنبأ أو يتحكم بشكل موثوق “.

تحذر الرسالة من أن الذكاء الإصطناعي يمكن أن يغمر قنوات المعلومات بالمعلومات الخاطئة، ويستبدل الوظائف بالأتمتة.

هل العالم مستعد لعاصفة الذكاء الإصطناعي القادمة؟

تأتي الرسالة في أعقاب تقرير حديث صادر عن بنك الاستثمار Goldman Sachs الذي قال إنه بينما من المرجح أن يزيد الذكاء الإصطناعي الإنتاجية، يمكن أن تصبح ملايين الوظائف مؤتمتة.

ومع ذلك، قال خبراء آخرون لبي بي سي إن من الصعب للغاية التنبؤ بتأثير الذكاء الإصطناعي على سوق العمل.

تغلب عليها الذكاء وعفا عليها الزمن وبشكل أكثر تأملاً، يسأل الخطاب: “هل يجب أن نطور عقولًا غير بشرية قد تفوق في النهاية عددًا، وتتفوق على الذكاء، وتتقادم وتحل محلنا؟”

قال ستيوارت راسل، أستاذ علوم الكمبيوتر في جامعة كاليفورنيا، بيركلي، وأحد الموقعين على الرسالة، لبي بي سي نيوز: “تشكل أنظمة الذكاء الإصطناعي مخاطر كبيرة على الديمقراطية من خلال المعلومات المضللة، والتوظيف من خلال إزاحة المهارات البشرية والتعليم من خلال الانتحال. والتثبيط “.

وفي المستقبل، قد يشكل الذكاء الإصطناعي المتقدم “تهديدًا عامًا للسيطرة البشرية على حضارتنا”.

وأضاف البروفيسور راسل: “على المدى الطويل، فإن اتخاذ الاحتياطات المعقولة هو ثمن ضئيل يجب دفعه للتخفيف من هذه المخاطر”.

لكن أستاذ علوم الكمبيوتر في جامعة برينستون، أرفيند نارايانان، اتهم الرسالة بالتركيز على “المخاطر التخمينية والمستقبلية، وتجاهل نسخة المشكلة التي تؤذي الناس بالفعل”.

‘ابطئ’

في تدوينة حديثة نُشرت في الرسالة، حذرت شركة OpenAI من المخاطر التي قد تحدث إذا تم تطوير الذكاء الإصطناعي العام (AGI) بشكل متهور: “يمكن أن يتسبب الذكاء الإصطناعي الخارق الخارق المنحرف في إلحاق ضرر جسيم بالعالم؛ يمكن لنظام استبدادي يتمتع بقيادة حاسمة للذكاء الخارق أن يفعل هذا ايضا.

وكتبت الشركة: “من المرجح أن يكون التنسيق بين جهود التقليل العام للإبطاء في المنعطفات الحرجة أمرًا مهمًا”.

لم يعلق OpenAI علنًا على الرسالة. وقد سألت بي بي سي الشركة عما إذا كانت تدعم المكالمة.

كان ماسك مؤسسًا مشاركًا لـ OpenAI – على الرغم من استقالته من مجلس إدارة المنظمة قبل بضع سنوات وقام بالتغريد بشكل نقدي حول اتجاهها الحالي.

تستخدم وظائف القيادة الذاتية التي تقوم بها شركة السيارات Tesla، مثل معظم الأنظمة المماثلة، تقنية الذكاء الاصطناعي.

تطلب الرسالة من مختبرات الذكاء الاصطناعي “التوقف فورًا لمدة ستة أشهر على الأقل عن تدريب أنظمة الذكاء الاصطناعي الأكثر قوة من GPT-4”.

إذا لم يكن بالإمكان تفعيل مثل هذا التأخير بسرعة، فيجب على الحكومات التدخل وفرض تجميد، كما تقول.

ستكون هناك حاجة أيضًا إلى “سلطات تنظيمية جديدة وقادرة مخصصة للذكاء الاصطناعي”.

في الآونة الأخيرة، تم طرح عدد من المقترحات لتنظيم التكنولوجيا في الولايات المتحدة والمملكة المتحدة والاتحاد الأوروبي. ومع ذلك، استبعدت المملكة المتحدة وجود جهة تنظيمية مخصصة للذكاء الاصطناعي.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى