«Open AI» خايفة من الحب!

تبدي شركة «أوبن إيه آي»، المطورة لنموذج «تشات جي بي تي»، قلقها من إمكان أن تتسبَّب الواقعية الكبيرة في الصوت المرفق ببرنامجها للذكاء الاصطناعي في تعلُّق المستخدمين بالتفاعلات الآلية على حساب العلاقات البشرية.

وأشارت الشركة، التي تتخذ مقراً في سان فرانسيسكو، في تقرير نقلته وكالة الصحافة الفرنسية، أمس، إلى أن الدردشة مع الذكاء الاصطناعي، كما قد يفعل المرء مع شخص آخر، قد تدفع بالمستخدمين إلى أن يضعوا ثقة في غير محلها بالبرامج الآلية، كما أن الجودة العالية للصوت المدمج بنسخة «جي بي تي- 4 أو (GPT-4o) قد تضاعف هذا التأثير.

وقالت الشركة، في التقرير عن العمل الأمني الذي تقوم به على نسخة ChatGPT-4o، إن تقنيات التشبيه بالإنسان تتضمن إسناد سلوكيات وخصائص خاصة بالبشر إلى كيانات غير بشرية، مثل نماذج الذكاء الاصطناعي، محذرة من أن «هذا الخطر قد يزداد بسبب القدرات الصوتية لـGPT-4o، والتي تسهِّل المزيد من التفاعلات الشبيهة بالإنسان.

وأضافت أنها لاحظت أن المستخدمين يتحدثون إلى الذكاء الاصطناعي بطرق تشير إلى روابط مشتركة، مثل التذمر بصوت عالٍ أمامه، معتبرة أن هذه الحالات تبدو حميدة، لكن يتعيَّن دراستها، لمعرفة كيفية تطورها على مدى فترات أطول.

وتكهنت «أوبن إيه آي» بأن التفاعل الاجتماعي مع الذكاء الاصطناعي قد يجعل المستخدمين أقل مهارة أو ميلاً للتواصل مع البشر، مما قد يؤثر على المعايير الاجتماعية»، معقبة: «نماذجنا مثلاً تتعامل بتواضع مع المستخدمين، وهذا يسمح لهم بالمقاطعة وأخذ الدور في الكلام بأي وقت، وهذا يتعارض مع آداب الحديث في التفاعلات البشرية».

ووفق «أوبن إيه آي»، فإن قدرة الذكاء الاصطناعي على تذكُّر التفاصيل أثناء المحادثة وإنجاز المهام قد تجعل الناس يعتمدون بشكل مفرط على التكنولوجيا.

 

المصدر: الجريدة
guest
0 تعليقات
Inline Feedbacks
View all comments