عند تصفح مواقع التواصل الاجتماعي، ربما صادفت أحد الأصدقاء أو أفراد عائلتك وقد صنع لنفسه صورة مصغرة على شكل دمية بواسطة الذكاء الاصطناعي.
إنه جزء من صيحة جديدة يستخدم فيه الناس أدوات الذكاء الاصطناعي مثل ChatGPT وCopilot لإعادة صياغة أنفسهم حرفياً على شكل دمى ومجسمات صغيرة بحجم الجيب.
انتشرت هذه الصيحة على الإنترنت، حيث تنخرط علامات تجارية ومؤثرون في ابتكار نسخ مصغرة عن أنفسهم.
لكن البعض يحث على تجنب هذا الاستخدام الذي يبدو بريئاً، قائلين إن الخوف من أن تفوتك فرصة مثل هذه لا ينبغي أن يطغى على المخاوف، بشأن استخدام الذكاء الاصطناعي للبيانات، ومقدار الطاقة التي يتم صرفها على مثل تلك التقليعات.
يقوم المستخدمون بتحميل صورهم لأي من الأدوات، مثل ChatGPT، برفقة إرشادات مكتوبة تشرح كيف يريدون أن تبدو الصورة النهائية.
على الرغم من أن النتيجه ليست مضمونة دوماً، إلا أن الكثيرين شاركوا بعض الأخطاء الطريفة التي ارتكبتها الأدوات، حيث لا تبدو المجسمات الصغيرة مشابهة لهم على الإطلاق.
ومثل غيرها من أدوات الذكاء الاصطناعي، تميل مُولِدات الصور أيضا إلى اختلاق او افتراض أشياء، غير تلك الموجودة بالواقع، كأن تضع افتراضات حول الشكل الذي ينبغي أن يبدو عليه الشخص.
ما سر جاذبيتها؟
تأتي الصيحات وتذهب، ولكن لطالما ما جذبت الناس لتجعلهم يشعرون بالرغبة في تجريب هذه الأدوات خوفاً من أن تفوتهم الصيحة.
تقول جاسمين إنبرغ، كبيرة محللي وسائل التواصل الاجتماعي في شركة أبحاث السوق EMarketer: “يُسهل الذكاء الاصطناعي التوليدي على الناس إنشاء الصيحات ومواكبتها بشكل أسرع”.
تقول إن التكنولوجيا سهلت وسرَّعت إنشاء المحتوى عبر الإنترنت، ما قد يكون له تأثير غير متوقع في تسريع وتيرة انزعاج مستخدمي وسائل التواصل الاجتماعي الآخرين منها.
ما هي أبرز المخاوف؟
في حين أن طابعها المرح ربما يجذب الناس إليها، إلا أن هذا التوجه أثار انتقادات من بعض المهتمين بتأثيره البيئي.
صرحت البروفيسورة جينا نيف من جامعة كوين ماري في لندن لبي بي سي أن ChatGPT “يستهلك طاقة هائلة”، وأن مراكز البيانات المستخدمة لتشغيله تستهلك كهرباء سنويا أكثر مما تستهلكه 117 دولة.
يقول لانس أولانوف، محرر قسم الولايات المتحدة في موقع TechRadar، في مقال حول هذا التوجه: “لدينا نكتة في منزلي، مفادها أنه في كل مرة ننشئ فيها إحدى ميمات الذكاء الاصطناعي هذه، يتم قتل شجرة”.
كما سلط آخرون الضوء على مخاوف، بشأن احتمال استخدام البيانات المحمية بحقوق الطبع والنشر، في إنشاء التكنولوجيا التي تولد الصور دون دفع ثمنها.
تقول السيدة نيف: “تمثل باربي المولدة عن طريقChatGPT تهديداً ثلاثياً لخصوصيتنا وثقافتنا وكوكبنا”، وتضيف أنه “على الرغم من أن إضفاء الطابع الشخصي قد يبدو لطيفا، إلا أن هذه الأنظمة تضع العلامات التجارية والشخصيات في خلاط دون أي مسؤولية عن أي فوضى ستنتج لاحقاً”.
وتتساءل جو بروميلو، مديرة قسم التواصل الاجتماعي والمؤثرين في وكالة العلاقات العامة والإبداع MSL UK: “هل تستحق النتيجة اللطيفة والمضحكة كل هذا العناء حقا؟”
تجربة توليد دمى الذكاء الاصطناعي
بقلم/ زوي كلاينمان، محررة شؤون التكنولوجيا في بي بي سي
بدأت بالبحث عن مُوجِّه عبر الإنترنت، وهي قائمة من التعليمات التي يجب إدخالها إلى أداة الذكاء الاصطناعي حتى تتمكن من إنشاء الصورة.
عندما تعلق الأمر بتقديم مسمى وظيفتي، رُفضت محاولتي الأولى لأنني أدرجتُ أخبار بي بي سي، وقيل لي إن هذا ينتهك سياسة المحتوى – أعتقد لأن بي بي سي لا تسمح حالياً لبرنامج ChatGPT باستخدام مُخرجاته.
بمجرد الحصول على صورة، من المُرجح أنك سترغب في تعديلها أكثر، كانت محاولتي الأولى أشبه بصورة لرسم متحرك.
النسخة التالية، الأكثر واقعية، جعلتني أبدو أكبر سناً بكثير عن الواقع، ثم أبدو طفولية جداً، واستسلمتُ في النهاية في محاولة جعله يستخدم لون عينيّ الحقيقي، الذي ظل يعود إلى اللون الأزرق على الرغم من أن عيناي مزيج من البني والأخضر.
استغرق إنشاء كل نسخة دقيقتين، وكانت العملية أبطأ مما كنتُ أرغب، ربما بسبب الإقبال عليه.
بدأ الأمر يبدو وكأنه جهد كبير لمواكبة صيحة عابرة، وهو ليس متقناً تماماً، فالدمية التي حصلت كانت تخرج بعيداً عن العبوة المفترضة لها.