و الأخيرة

رئيس مجلس الإدارة
أحمد عصام فهمي
رئيس التحرير
محمود الضبع

الشركة تحاول السيطرة

ميزة جديدة في شات gpt تسمح بمساعدة المبتدئين على تصنيع قنبلة بيولوجية

موقع الصفحة الأولى

في عصر التحول السريع في التكنولوجيا تقف أداة الذكاء الاصطناعي شات جي بي تي gpt اليوم على اعتاب فصل جديد يتيح للمستخدمين الولوج لتفاصيل ربما تكون هذه المرة مخيفة حيث تتيح للمستخدم التعرف على معلومات خاصة بتصنيع قنابل بيولوجية وتطوير منتجات كيميائية واشعاعية.

"وكيل شات جي بي تي"، هو أداة ذكاء اصطناعي جديدة تم أضافتها لروبوت الدردشة "شات جي بي تي" فهي قادرة على اتخاذ إجراءات نيابةً عن المستخدم، وهو أولَ مُنتَج تُصنِّفه "OpenAI" على أنه يتمتع بقدرة "عالية" في ما يتعلق بالمخاطر البيولوجية.
وتبعا  لتقرير لمجلة فورتشن فأن نموذج الذكاء الاصطناعي هذا يُمكنه تقديم مساعدة فعّالة للجهات والأشخاص "المبتدئين" وتمكينهم من التسبب في تهديدات بيولوجية أو كيميائية.

ووفقًا لتخوفات تقرير "فورتشن"، فإن المؤشر الذي تستخدمه الشركة لرصد المخاطر الجديدة التي قد تُسبِّب أضرارًا جسيمة من نماذجها المتقدمة والاستعداد لها، فإن الواقع الحقيقي قد يحذر من أن حوادث الإرهاب البيولوجي أو الكيميائي التي يقوم بها أشخاص ستصبح أكثر احتمالًا في ظل هذه الأداة.

بواز باراك، أحد أعضاء الفريق الفني السابق في "OpenAI"، قال في منشور على مواقع التواصل: "البعض قد يظن أن المخاطر البيولوجية غير حقيقية، وأن النماذج لا تقدم سوى معلومات يمكن العثور عليها من خلال البحث. ربما كان هذا صحيحًا في 2024، لكنه بالتأكيد ليس صحيحًا اليوم، بناءً على تقييماتنا وتقييمات خبرائنا، فإن الخطر حقيقي للغاية
وأضاف:لا نستطيع التأكيد بأن هذا النموذج قادر على تمكين شخص مبتدئ من إحداث ضرر بيولوجي جسيم، أعتقد أنه كان من غير المسؤول إطلاق هذا النموذج دون إجراءات وقائية شاملة.

الشركة ترد

أكدت كيرين جو، الباحثة في مجال السلامة لدى "OpenAI"، إنه على الرغم من عدم امتلاك الشركة أدلة قاطعة على أن النموذج يمكن أن يُرشد فعليًا شخصًا مبتدئًا إلى إحداث ضرر بيولوجي جسيم، فقد فعّلت الشركة إجراءات الحماية على أي حال.
وهذه الإجراءات هي: جعل وكيل شات جي بي تي يرفض الرسائل التي تطلب مساعدة شخص ما على إنتاج سلاح بيولوجي، وتوفير أنظمة ترصد الطلبات التي قد تكون غير آمنة وتحولها للمراجعة من قبل خبراء، وإنشاء قواعد صارمة لحجب المحتوى الخطير، ومراقبة دقيقة لسوء الاستخدام.

وأصبح لدى الشركة قلق متزايد بشأن احتمالية إساءة استخدام النماذج في تطوير الأسلحة البيولوجية،وحذرت الشركة من أنه بدون هذه الاحتياطات، قد تُمكّن النماذج قريبًا من "رفع مستوى المبتدئين"، أي مساعدة الأفراد ذوي الخلفية العلمية المحدودة على تطوير أسلحة خطيرة.

وقال باراك: أن الحصول على المواد لا يُمثل عائقًا كبيرًا أمام إنشاء تهديدات بيولوجية وبالتالي يعتمد الأمن بشكل أكبر على ندرة المعرفة والمهارات المخبرية"، وتابع "بناءً على تقييماتنا وخبراء خارجيين، يُمكن لوكيل شات جي بي تي غير المقيد سد هذه الفجوة المعرفية وتقديم نصائح أقرب إلى خبير متخصص".

تُعد ميزة الوكيل الجديدة في "شات جي بي تي"، التي أضافتها "OpenAI" مؤخرًا ،محاولةً للاستفادة من أحد أكثر مجالات تطوير الذكاء الاصطناعي رواجًا وخطورةً؛ إلا وهو وكلاء الذكاء الاصطناعي.

وتتسابق مختبرات الذكاء الاصطناعي في كثير من الشركات الآن لبناء وكلاء يمكنهم إدارة المهام الرقمية المعقدة بشكل مستقل، ويأتي إطلاق هذه الميزة عقب إصدارات مماثلة من "غوغل" و"أنثروبيك" وترى شركات التكنولوجيا الكبرى في وكلاء الذكاء الاصطناعي فرصةً تجاريةً واعدةً، إذ تتجه الشركات بشكل متزايد نحو دمج الذكاء الاصطناعي في سير العمل وأتمتة بعض المهام.

وبالطبع فإن شركة "OpenAI" أقرت بأن زيادة استقلالية نماذج الذكاء الاصطناعي قد تُسبب مخاطر أكبر، وتؤكد الشركة بأهمية تحكم المستخدم للحد من هذه المخاطر.

تم نسخ الرابط