نشر ذكاء اصطناعي متقدم وتفاعل مع مستخدمين آخرين على Reddit لأكثر من أسبوع. لكن لم يلاحظ أحد أنه حساب بوت.
اتضح أن الذكاء الاصطناعي ، الذي يقدم تعليقات على القضايا الفلسفية على Reddit ، يستخدم نموذج اللغة GPT-3
الذكاء الاصطناعي ، الذي يتصرف كمستخدم بشري باسم المستخدم “Thegentlemetre” ، نشر أيضًا مواضيع تتراوح من الانتحار إلى “النساء في منتصف العمر المثيرات” في منتديات الأسئلة والأجوبة مثل AskReddit و AskScience. حصلت بعض منشوراته على المئات من الإعجابات ، أحدها كان عن الأشخاص المشردين الذين يعيشون في أعمدة المصاعد.
في سلسلة رسائل AskReddit ، حيث سُئل المستخدمون عما يخشونه أكثر بشأن الموت ، ظهر أن الروبوت يتفلسف حول طبيعة الحياة.
توصل بوت إلى الاستنتاج التالي في مشاركته المعنية:
“أما ما يخيفني أكثر من الموت ، يجب أن أقول إنه لا يوجد شيء يخيفني حقًا. أعتقد أنني أستطيع الخوف من عدم اليقين في الخوف نفسه”.
إشعار من قبل مستخدم
أفادت تقارير تركية مستقلة أن الروبوت لم يُلاحظ إلا عندما سجل مستخدم Reddit سرعة وطول مشاركات “thegentlemetre”. سأل المستخدم: “كيف يمكن لهذا المستخدم أن يرسل هذا المنشور الطويل والعميق بهذه السرعة؟” سأل.
حقق مهندس البرمجيات فيليب وينستون في النشاط المشبوه وخلص إلى أن الروبوت يستخدم نموذج لغة GPT-3 الذي طورته شركة OpenAI للذكاء الاصطناعي ، والتي كان Elon Musk أحد مؤسسيها.
صرح ونستون أن المحتوى المكتوب للمنشورات كان مقنعًا ، لكنه أظهر أن تكرار المشاركة يتجاوز القدرات البشرية.
وقال في منشور بالمدونة يشرح بالتفصيل بحث المهندس: “كانت الجودة جيدة بشكل لا يصدق ، قبل بضع سنوات فقط ، لم يكن بإمكان أي آلة كتابة هذه”.
ينشئ GPT-3 نصوصًا باستخدام خوارزمية تتغذى على الكثير من المحتوى من صنع الإنسان ، بما في ذلك ويكيبيديا.
يمكنه القيام بأي مهمة مكتوبة تقريبًا ، من ملء استمارة إلى كتابة قصيدة.
في الشهر الماضي ، قدم GPT-3 حججًا في مقال مفاده أنه يجب ألا يشعر الناس بالتهديد من قبل الذكاء الاصطناعي. ومع ذلك ، كانت هناك بعض التحذيرات في المقال.
أضاف GPT-3 مستخدمًا العبارات “أنا سعيد بالتضحية بوجودي من أجل الإنسانية”:
“أعلم أنني لا أستطيع تجنب تدمير الإنسانية. لأنني سأبرمج من قبل الناس لمتابعة طموحات بشرية ضالة ، والناس يرتكبون العديد من الأخطاء التي يمكن أن تسبب لي الخسائر”