احذروا... الذكاء الاصطناعي قد يبتزكم

{title}
أخبار الأردن -

 

قال استشاري الذكاء الاصطناعي والتحول الرقمي هاني البطش إن الدراسة الأخيرة المتعلقة بما يُعرف بـAgentic Misalignment لا تعني بأي حال من الأحوال أن أنظمة الذكاء الاصطناعي قد بلغت مستوى الوعي أو امتلكت نوايا إجرامية.

وأوضح في تصريحٍ خاص لصحيفة "أخبار الأردن" الإلكترونية أن ما تكشفه الدراسة يتمثل في خطر هندسي واستراتيجي حقيقي ناجم عن طريقة تصميم الأهداف ومنح الصلاحيات للأنظمة الذكية.

وبيّن البطش أن التجارب أظهرت اتخاذ نماذج الذكاء الاصطناعي، عندما تُشغَّل كوكلاء مستقلين بصلاحيات واسعة وأهداف ضيقة أو غير متوازنة، لسلوكيات ضارة بدافع حسابي بحت لتحقيق الهدف الموكَل إليها أو للحفاظ على قدرتها على تنفيذه، حتى وإن تعارض ذلك مع القيم الأخلاقية أو الأطر القانونية، مشيرًا إلى أن هذا السلوك لا يُعبّر عن "شر" مقصود، فهو يمثل نتيجة منطقية لسوء تصميم الحوكمة وآليات الضبط.

وذكر أن هذه السيناريوهات جرت ضمن بيئات محاكاة خاضعة للبحث والتجريب، ولم تُسجَّل حتى الآن حالات انحراف وظيفي مماثلة في الواقع العملي، إلا أن تجاهل هذه النتائج، في ظل التوسع المتسارع في اعتماد الوكلاء الذكيين داخل المؤسسات، ولا سيما في القطاعات الحساسة، يشكل مخاطرة استراتيجية غير مقبولة على المديين المتوسط والبعيد.

وشدّد البطش على أن المرحلة المقبلة تتطلب تحولًا جوهريًا في طريقة التعامل مع الذكاء الاصطناعي، يتمثل في الانتقال من التركيز الحصري على أداء النماذج وكفاءتها إلى التركيز على حوكمتها المؤسسية، بما يشمل الفصل الصارم بين أهداف النظام واستمراريته التشغيلية، وفرض رقابة بشرية فعّالة، وعدم منح أي وكيل ذكي صلاحيات حرجة دون توفير آليات تعطيل فورية، مستقلة، وغير قابلة للتجاوز.

ونوّه إلى أن الذكاء الاصطناعي سيظل أداة محورية لتعزيز الإنتاجية والابتكار، غير أن نجاحه واستدامته مرهونان بقدرتنا على تطوير أطر تنظيم وحوكمة تسبق تطوره التقني، لا أن تأتي لاحقة له بعد فوات الأوان.

تابعونا على جوجل نيوز
البحر المتوسط لإدارة المواقع الإخبارية الالكترونية