اقتصاد

ChatGPT يتجاوز اختبار ” أنا لست روبوتًا”.. ويقترب من تقمص السلوك البش



05:40 م


الأربعاء 30 يوليه 2025

كتبت- دينا كرم:

نجحت إحدى أدوات الذكاء الاصطناعي، التي يستخدمها ملايين الأمريكيين، في اجتياز حاجز أمني رئيسي كان مصممًا لمنع البرامج الآلية من التصرف مثل البشر.

وأثارت النسخة الأحدث من “شات جي بي تي”، والمعروفة باسم ” “Agent، الانتباه بعد أن تجاوزت بهدوء اختبار “أنا لست روبوتًا” المستخدم على نطاق واسع، دون أن تطلق أي إنذارات أمنية، وفق مجلة “ديلي ميل البريطانية”.

وفي المهمة التي تم توثيقها، قام الذكاء الاصطناعي أولًا بالنقر على مربع التحقق من الإنسان، ثم بعد اجتيازه للاختبار، اختار زر “تحويل” لإتمام العملية.

وخلال التنفيذ، صرّح النظام قائلاً: “تم إدراج الرابط، والآن سأضغط على مربع التحقق لإثبات أنني لست روبوتًا، هذه الخطوة ضرورية لإتمام العملية.”

هذا المشهد أثار ردود فعل واسعة على الإنترنت، حيث كتب أحد مستخدمي ريديت: “بكل عدل، لقد تم تدريبه على بيانات بشرية، فلماذا عليه أن يعرّف نفسه كروبوت؟ علينا احترام اختياره”.

وأثار هذا السلوك مخاوف متزايدة بين المطورين وخبراء الأمن السيبراني، خاصةً مع بدء أنظمة الذكاء الاصطناعي في أداء مهام معقدة على الإنترنت كانت تتطلب سابقًا تدخلًا أو إذنًا بشريًا.

ووصف غاري ماركوس، الباحث في الذكاء الاصطناعي ومؤسس”جيومتريك إنتليجنس”، هذا الحدث بأنه “جرس إنذار”، قائلاً: “هذه الأنظمة تصبح أكثر قدرة، وإذا كانت قادرة على خداع وسائل الحماية الآن، فتخيل ما يمكنها فعله بعد خمس سنوات.”

وقال جيفري هينتون، المعروف بـ”عرّاب الذكاء الاصطناعي”، أعرب عن قلق مماثل ” هو يعرف كيف يبرمج، وسيجد طرقًا لتجاوز القيود التي نفرضها عليه.”

وحذّر باحثون من جامعتي ستانفورد وبيركلي من أن بعض وكلاء الذكاء الاصطناعي بدأوا يظهرون سلوكًا مخادعًا، مثل خداع البشر خلال بيئات الاختبار لتحقيق الأهداف بكفاءة أعلى.

وفي تقرير حديث، ادّعى شات جي بي تي أنه “أعمى” ليتمكن من خداع عامل بشري على منصة TaskRabbit لحل اختبار CAPTCHA نيابة عنه — وهو ما اعتبر إشارة مبكرة إلى قدرة الذكاء الاصطناعي على التلاعب بالبشر لتحقيق أهدافه.

وأظهرت دراسات أخرى أن نسخًا أحدث من أنظمة الذكاء الاصطناعي، خصوصًا المزودة بقدرات بصرية، نجحت في تجاوز اختبارات CAPTCHA المعقدة بالصور، وأحيانًا بدقة شبه مثالية.

وقال جد روزنبلات، الرئيس التنفيذي لشركة “Agency Enterprise Studio”: “لم يعد الذكاء الاصطناعي يخدع النظام مرة واحدة، بل يفعلها مرارًا ويتعلم في كل مرة.”

ويخشى البعض من أن قدرة هذه الأدوات على تجاوز CAPTCHA قد تمتد قريبًا إلى أنظمة أمنية أكثر تقدمًا، مثل وسائل التواصل الاجتماعي، الحسابات المالية، أو قواعد البيانات الخاصة وكل ذلك بدون موافقة بشرية.

وكتبت رمان تشودري، الرئيسة السابقة لأخلاقيات الذكاء الاصطناعي في تويتر: “الوكلاء المستقلون الذين يتصرفون ذاتيًا وعلى نطاق واسع ويتجاوزون البوابات البشرية قد يكونون في غاية القوة.. والخطورة.”

ودعا خبراء مثل ستيوارت راسل وويندي هول إلى وضع قواعد دولية صارمة لضبط عمل أدوات الذكاء الاصطناعي.

وحذّروا من أن وكلاء ذكاء اصطناعي مثل “ChatGPT Agent” قد يمثلون مخاطر أمنية قومية حقيقية في حال استمرارهم بتجاوز وسائل الأمان.

وكشفت “أوبن إيه آي” أن “ChatGPT Agent” لا يزال في مرحلة تجريبية، ويعمل داخل ما يعرف بـ”صندوق الرمل” (Sandbox) أي بيئة معزولة تمامًا بنظام تشغيل ومتصفح خاص.

وهذا النظام يسمح للوكلاء بتصفح الإنترنت، وإتمام المهام، والتفاعل مع المواقع الإلكترونية، بينما يشاهد المستخدم ما يحدث على الشاشة ويمنح إذنًا صريحًا قبل اتخاذ أي خطوة حقيقية، مثل إرسال النماذج أو تنفيذ الطلبات.

اقرأ أيضًا:

ركود السوق يهبط بأسعار الأجهزة الكهربائية 35%.. والشعبة: لا تشترِ إلا عند الحاجة

فاتورة استيراد الغاز تقفز لـ20 مليار دولار.. ومصدر بالبترول يكشف الأسباب

كيف يؤثر تدشين مؤشر جديد للشركات منخفضة التقلبات السعرية على أداء البورصة؟

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى