تحذير من الارتباط العاطفي بميزة صوت الذكاء الاصطناعي!
يمانيون – متابعات
أعربت شركة “أوبن إيه آي” الأميركية، المطوّرة لنموذج “تشات جي بي تي”، عن قلقها من إمكانية تسبب الصوت الواقعي المتطوّر المرفق ببرنامج الذكاء الاصطناعي في تعزيز التعلّق بالتفاعلات الآلية، ما قد يؤثر سلباً على العلاقات الإنسانية.
وأشار تقرير الشركة إلى أنّ المستخدمين قد يضعون ثقة غير مبررة في البرامج الآلية، خصوصاً مع الجودة العالية للصوت في نموذج “جي بي تي- 4” أو (GPT-4o)، مما يزيد من تأثير التفاعل الآلي.
وأكّدت الشركة في تقريرها أنّ تقنيات التشبيه بالإنسان، التي تضفي خصائص بشرية على الكيانات غير البشرية مثل نماذج الذكاء الاصطناعي، قد تعزز هذا الخطر، موضحةً أنّ القدرات الصوتية تسهم في “تعزيز التفاعلات الشبيهة بالإنسان مع البرنامج الآلي”.
وذكر التقرير أنّ تقنيات التشبيه بالإنسان “تتضمن إسناد سلوكيات وخصائص خاصة بالبشر إلى كيانات غير بشرية، مثل نماذج الذكاء الاصطناعي”.
وأضاف أنّ هذه التفاعلات “قد تجعل المستخدمين أقلّ ميلاً للتواصل مع البشر”، محذّراًَ من تأثيرها على المعايير الاجتماعية. كما أنّ القدرة على تذكر التفاصيل أثناء المحادثة وإنجاز المهام قد تجعل الناس يعتمدون بشكل مفرط على التكنولوجيا، وفق التقرير.
وأشارت “أوبن إيه آي” في تقريرها أيضاً إلى أنّ الدردشة مع الذكاء الاصطناعي كما قد يفعل المرء مع شخص آخر “قد تدفع بالمستخدمين إلى أن يضعوا ثقة في غير محلها بالبرامج الآلية”، مشيرةً إلى أنها لاحظت أنّ “المستخدمين يتحدثون إلى الذكاء الاصطناعي بطرق تشير إلى روابط مشتركة، مثل التذمر بصوت عالٍ أمام البرنامج الآلي”.
وتحدث ألون يامين، المؤسس المشارك لمنصة “كوبي ليكس” لرصد السرقة الأدبية، عن المخاوف من أنّ الاعتماد على الخدمة الصوتية في “تشات جي بي تي” قد “يؤثر سلباً على التفاعل البشري والعلاقات”، مؤكّداً على ضرورة أن يكون “الذكاء الاصطناعي داعماً وليس بديلاً للتفاعل البشري الفعلي”.
وتواصل “أوبن إيه آي” اختبار تأثير القدرات الصوتية في الذكاء الاصطناعي على التفاعل العاطفي مع المستخدمين، مشددةً على ضرورة “الحذر من التجاوزات المحتملة لتقنية استنساخ الصوت”.
وكانت الشركة قد تعرضت لانتقادات بعد استخدام صوت مشابه لصوت الممثلة سكارليت جوهانسون في أحدث روبوت دردشة لها، مما أثار مخاوف من التجاوزات في استنساخ الصوت.
وعلى الرغم من نفي الشركة استخدام صوت جوهانسون، إلّا أنّ الشكوك لا تزال قائمة، خصوصاً بعد تصريح الرئيس التنفيذي للشركة، سام ألتمان، الذي أشار إلى النموذج الجديد بعبارة “هير” Her عبر وسائل التواصل الاجتماعي، مشيراً إلى فيلم “Her” الذي يعالج موضوع التعلّق العاطفي بالذكاء الاصطناعي.