تم تقديم GPT-4o كنموذج محسّن بشكل كبير لـ ChatGPT. منذ ظهوره لأول مرة، أشاد الناس بـ ChatGPT-4o لتفاعلاته الشبيهة بالإنسان. على الرغم من أن هذا يبدو رائعًا، إلا أن OpenAI لاحظت مشكلة: بدأ الناس في التعامل مع روبوت الدردشة كإنسان وتكوين روابط عاطفية.
لاحظت OpenAI أشخاصًا يستخدمون لغة "قد تشير إلى تكوين اتصالات". وتشير الشركة إلى أنها وجدت حالات استخدم فيها الأشخاص لغة تعبر عن "الروابط المشتركة". ويوصف هذا بأنه خبر سيئ لسببين رئيسيين.
أولاً وقبل كل شيء، عندما يبدو ChatGPT-4o شبيهًا بالإنسان، يمكن للمستخدمين تجاهل أي من الهلوسة الصادرة عن chatbot. بالنسبة للسياق، فإن هلوسة الذكاء الاصطناعي هي في الأساس مخرجات غير صحيحة أو مضللة تم إنشاؤها بواسطة النموذج. يمكن أن يحدث هذا بسبب بيانات التدريب المعيبة أو غير الكافية.
ثانيًا، يمكن أن تؤدي التفاعلات الشبيهة بالإنسان مع برنامج الدردشة الآلي إلى تقليل التفاعلات الاجتماعية الحقيقية بين المستخدمين. يقول OpenAI أن تفاعلات chatbot يمكن أن تكون مفيدة "للأفراد الوحيدين"، ولكنها يمكن أن تؤثر أيضًا على العلاقات الصحية. وتشير الشركة أيضًا إلى أنه يمكن للأشخاص البدء في التحدث مع البشر معتقدين أن الشخص الآخر هو برنامج دردشة آلي.
سيكون ذلك أمرًا سيئًا لأن OpenAI صممت GPT-4o للتوقف عن التحدث عندما يبدأ المستخدم في التحدث عنه. مع كل هذه المخاوف، تقول الشركة إنها ستراقب الآن كيفية تطوير المستخدمين للروابط العاطفية مع ChatGPT-4o. تنص OpenAI أيضًا على أنها ستقوم بإجراء تعديلات على النموذج عند الضرورة.
احصل على مسجل الصوت PLAUD Note المدعوم بالذكاء الاصطناعي من أمازون
تنصل: جميع الموارد المقدمة هي جزئيًا من الإنترنت. إذا كان هناك أي انتهاك لحقوق الطبع والنشر الخاصة بك أو الحقوق والمصالح الأخرى، فيرجى توضيح الأسباب التفصيلية وتقديم دليل على حقوق الطبع والنشر أو الحقوق والمصالح ثم إرسالها إلى البريد الإلكتروني: [email protected]. سوف نتعامل مع الأمر لك في أقرب وقت ممكن.
Copyright© 2022 湘ICP备2022001581号-3