بصراحة، تتعارض أساليب Meta في تطوير وتكامل الذكاء الاصطناعي والواقع الافتراضي إلى حد كبير، بناءً على بياناتها الداخلية وملاحظاتها حول هذا الأمر مع مرور الوقت.
من ناحية، هو إضافة الذكاء الاصطناعي التوليدي في كل مكان، ويطالبك في كل منعطف بإنشاء الصور والحصول على إجابات للأسئلة التي لم تفكر مطلقًا في طرحها عبر أدوات الذكاء الاصطناعي.
ومع ذلك، في الوقت نفسه، حذر ميتا من مخاطر مثل هذا، وكيف أننا بحاجة إلى أن نكون حذرين بشكل متزايد من أجيال الذكاء الاصطناعي التي سيكون من الصعب التمييز بينها وبين الشيء الحقيقي.
هذا ما كان عليه رئيس إنستغرام آدم موسيري تحذير بشأن اليوم، مع ملاحظة، في مشاركة على المواضيع، أن:
“سواء كنت ثورًا أو دبًا في التكنولوجيا أم لا، فمن الواضح أن الذكاء الاصطناعي التوليدي ينتج محتوى يصعب تمييزه من تسجيلات الواقع، ويتحسن بسرعة.”
يقول موسيري إن Meta لها دور تلعبه في هذا، من خلال تصنيف المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي بأفضل ما يمكن. لكنه يشير أيضًا إلى أن الناس بحاجة إلى تحمل المزيد من المسؤولية لتقييم مثل هذا التدفق.
“سيكون من المهم بشكل متزايد أن يتمتع المشاهد، أو القارئ، بعقل مميز عندما يستهلك محتوى يُزعم أنه حساب أو تسجيل للواقع. نصيحتي هي *دائما* أن تفكر في من يتحدث.”
لكن موسري، من بين كل الناس، يعلم أن الناس لن يفعلوا ذلك. مرارًا وتكرارًا، رأينا خدع وسائل التواصل الاجتماعي تكتسب زخمًا، إلى درجة أن الحقائق العلمية الراسخة، مثل كون العالم كرويًا، أصبحت أقل قبولًا مما كانت عليه في الماضي.
لذلك، في حين أنه من الممكن أن يقول موسري إن المستخدمين سيحتاجون إلى توخي المزيد من الحذر في تقييم ذلك، فهو يعلم أن الناس لن يفعلوا ذلك، وأن الذكاء الاصطناعي التوليدي لديه القدرة على التسبب في ضرر كبير عبر التطبيقات الاجتماعية.
ومع ذلك، لا تزال Meta تضغط من أجل المزيد من المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي.
الرئيس التنفيذي لشركة ميتا مارك زوكربيرج لاحظت مؤخرا أنه يتوقع أن يكون المحتوى على Fb وIG في الغالب عبارة عن الذكاء الاصطناعي في المستقبل القريب، ولهذا السبب تضيف Meta المزيد والمزيد من أدوات إنشاء الذكاء الاصطناعي إلى تطبيقاتها.
Meta CTO Andrew Bosworth هو أيضًا حريصة على المضي قدما، مشيرين إلى أن تطور الذكاء الاصطناعي أظهر لهم الطريق للمضي قدمًا للمرحلة التالية، وأن ميتا تتطلع الآن إلى وضع “قدمها على الغاز” في تطوير الذكاء الاصطناعي.
ومع ذلك، فإننا لا نعرف آثار مثل هذا.
فنحن لا نعرف، على سبيل المثال، مدى الضرر الذي قد تسببه أجيال الذكاء الاصطناعي، من حيث المعلومات الخاطئة والتلاعب. فعلت ميتا ملاحظة مؤخرا أن الموجة المتوقعة من المحتوى الناتج عن الذكاء الاصطناعي في الانتخابات الأمريكية لم تحدث. لكن هذا لا يعني أن التزييف الذي يعتمد على الذكاء الاصطناعي لن يؤثر على تصوراتنا في المستقبل.
وفيما يتعلق برفاق الذكاء الاصطناعي، والذكاء الاصطناعي التحادثي في أدوات مثل نظارات Meta’s Ray-Ban، هل لدينا أي تقييم للأضرار الحقيقية التي يمكن أن يسببها الأشخاص الذين يتجنبون العلاقات الإنسانية، لصالح المشاركة الشخصية المتولدة؟
المخاطر هنا تشبه مخاطر وسائل التواصل الاجتماعي نفسها، والتي بدأنا الحديث عنها فقط بأثر رجعي. والآن فقط تتطلع الحكومات إلى ذلك تقييد الوصول إلى وسائل التواصل الاجتماعي للمستخدمين الشباب، بسبب المخاوف بشأن السلوكيات الضارة. الآن فقط نرى المنظمين ومسؤولي الأمن يتطلعون إلى ذلك إزالة تطبيق اجتماعي مملوك لخصم أجنبي بسبب مخاوف من إمكانية استخدامها للتأثير على الرأي العام.
هذه ليست سوى بعض الأضرار التي من المحتمل أن تسببها وسائل التواصل الاجتماعي، وكانت هذه الإمكانية كافية لتحفيز الحكومة على اتخاذ إجراءات واسعة النطاق. ومع ذلك، فقد استغرقنا سنوات للوصول إلى هذه النقطة في المناقشة، حيث نقوم في الواقع بتقييم هذه الأنشطة على أنها أنشطة قد تكون ضارة.
كانت وسائل التواصل الاجتماعي تعتبر في البداية أمرا جديدا، وشيء بالنسبة للأطفال، وسيلة إلهاء غير ضارة. حتى لم يكن كذلك.
والآن، يتم النظر إلى أجهزة الذكاء الاصطناعي والواقع الافتراضي بنفس الطريقة تقريبًا.
هذا لا يعني أن التطور التكنولوجي سيئ بطبيعته، ولكن مرة أخرى، يبدو أن وجهة نظر ميتا هنا تتأرجح بشكل كبير، من إطلاق الإنذار إلى تشجيع المشاركة.
ولكن ما نحتاج إليه في واقع الأمر هو تقييم استباقي للتأثيرات المحتملة قبل أن نذهب إلى أبعد من ذلك، وليس بعد ذلك. لأنه بمجرد أن يكون لديك مليار شخص يشاركون في الواقع الافتراضي، ويدردشون مع روبوتات الذكاء الاصطناعي المخصصة، فإن التأثيرات ستصبح واضحة للغاية. ولكن بحلول ذلك الوقت، سيكون قد فات الأوان.