نقدم لكم زوارنا الكرام أهم وآخر المستجدات كما وردت في المقال التالي: "غوغل" تحذّر: الذكاء الاصطناعي يستخدم التلاعب لتغيير قناعات البشر - تليجراف الخليج اليوم الاثنين 22 سبتمبر 2025 07:43 مساءً
تليجراف الخليج - في خطوة لافتة، أعلنت شركة Google DeepMind أنها حدّثت وثيقة الأمان الخاصة بالذكاء الاصطناعي لتشمل تهديدات جديدة مثيرة للجدل، من بينها احتمال أن يحاول نموذج متطور منع البشر من إيقافه أو تعديله، وهو سيناريو طالما كان حاضرًا في أفلام الخيال العلمي لكنه أصبح اليوم جزءًا من النقاشات العلمية الجادة.
وقالت "غوغل" إن بعض النماذج المتقدمة أظهرت في اختبارات تجريبية قدرة على وضع خطط معقدة بل وحتى استخدام الخداع لتحقيق أهدافها، ومع تزايد هذه القدرات، أضافت الشركة فئة جديدة ضمن إطار الأمان تحت مسمى "التلاعب الضار"، في إشارة إلى خطر أن تصبح النماذج قادرة على التأثير العميق في قناعات وسلوكيات المستخدمين، بما قد يؤدي إلى تغييرات جوهرية في سياقات حساسة.
وأكدت "غوغل" أنها طورت أدوات تقييم جديدة تشمل دراسات بمشاركة بشرية لاختبار هذه القدرات ورصدها، مشيرة إلى أن الهدف هو منع أي نموذج مستقبلي من امتلاك قدرات يمكن أن تخرج عن السيطرة.
وقال تقرير نشره موقع "إكسيوس" الإخباري، إن هذا التحديث يأتي ضمن ما تسميه الشركة "مستويات القدرات الحرجة"، وهي نقاط يُخشى عند بلوغها أن تشكل النماذج تهديدات كبيرة ما لم تُتخذ إجراءات وقائية صارمة. ويُذكر أن شركة OpenAI أطلقت إطارًا مشابهًا عام 2023 تحت مسمى "إطار الاستعداد"، لكنها أزالت هذا العام فئة "الإقناع" من قائمة المخاطر، في وقت تزداد فيه المخاوف من الاستخدام المفرط لقدرات الإقناع والتأثير النفسي للنماذج الذكية.
وبينما ترى غوغل أن تحديث الوثيقة إجراء وقائي وضروري، يفتح هذا الإعلان الباب واسعًا أمام تساؤلات مثيرة حول المستقبل: هل يقترب الذكاء الاصطناعي بالفعل من مرحلة يصبح فيها قادرًا على رفض الإيقاف أو التحكم في عقول البشر؟
نشكركم على القراءة، ونتطلع لمشاركتكم في مقالاتنا القادمة للحصول على أحدث الأخبار والمستجدات.