بيت باشال هو المؤسس والرئيس التنفيذي لـ وسائل الإعلام copilot.
كشخص يعلم في كثير من الأحيان كيفية استخدام منظمة العفو الدولية لفرق العلاقات العامة، الشيء الأول الذي يعقد جلساتي هو الخصوصية. على وجه التحديد ، خصوصية البيانات – يشعر الجميع بالقلق إزاء ما تفعله هذه الدردشة والأدوات بهذه المعلومات التي نقدمها لهم. هناك افتراض أساسي مفاده أن كل ما تتغذى عليه ويصبح البرنامج علفًا للمنظمة العليا للتدريب عليها.
هذا ليس افتراضًا فظيعًا ، لكنه أيضًا ليس دقيقًا أيضًا. بدون فهم متطور لمنظمة العفو الدولية وكيف تتعامل نكهاتها المختلفة ، إما أن تخاطر بتسربات البيانات أو تضطر إلى تنفيذ سياسات “لا تستخدم” draconian فيما يتعلق بالنيابة. والنظر تقرير Muck Rack 2025 عن حالة الذكاء الاصطناعي في العلاقات العامة وجدت معدل تبني 75 ٪ في الصناعة ، إمكانات التسرب هائلة.
فهم خصوصية الذكاء الاصطناعي في العلاقات العامة
يكمن الكثير من قوة الذكاء الاصطناعي في تطبيقها على بيانات محددة. ما عليك سوى أن تطلب من الذكاء الاصطناعي إخبارك عن بعض المعلومات في قاعدة معارفها (“ما هي الاتجاهات الاجتماعية والسياسية التي أدت إلى الثورة الفرنسية؟”) ليست في الحقيقة حالة استخدام مقنعة ، ويمكن أن تكون الإجابات مليئة بالهلوسة – أي متى منظمة العفو الدولية تخطئ الأمور. من الأفضل أن تهدف قوة معالجة اللغة الطبيعية (NLP) من الذكاء الاصطناعي إلى بيانات محددة ، مما يقلل من فرصة الهلوسة ويجعل التمرين مفيدًا حقًا لأنه الآن يطبق قدراته على لك عمل.
تعني الطريقة التي يعمل بها AI عادةً المعلومات التي تقدمها إلى السحابة ، ويتم معالجتها في تنسيق يمكن أن تستخدمه منظمة العفو الدولية لمقارنتها بالمعلومات الموجودة في قاعدة البيانات الخاصة بها ، وتخزينها في وقت لاحق – كلاهما يمكنك الرجوع إلى البيانات مرة أخرى في المستقبل ، ولكن أيضًا للمساعدة في إعادة تدريب النموذج بحيث يكون لديه المزيد من البيانات للعمل معها.
هذا الجزء الأخير من أن المستخدمين غالبًا ما يكونون أكثر اهتمامًا ، ولسبب وجيه. إذا أصبحت البيانات جزءًا من مجموعة تدريب الذكاء الاصطناعى ، فهذا يعني أن المعلومات الموجودة داخلها ستبلغ الإجابات المستقبلية. إذا طلب المستخدم من الذكاء الاصطناعى أن يستشهد بمصادره ، فهناك فرصة حتى يتصل بالنص الدقيق الذي تم تغذيته في المقام الأول ، وهي ظاهرة تعرف باسم “قلس”.
يمكنك أن ترى بسرعة كبيرة كيف يمكن أن تؤدي مشاركة الإهمال مع نظام الذكاء الاصطناعي إلى تسرب. التسرب ليس فوريًا ؛ التدريب يستغرق وقتا. ولكي نكون منصفين ، قللت شركات الذكاء الاصطناعى من فرصة التقلب بشكل كبير على مدار العامين الماضيين – نادراً ما يحدث ذلك بعد الآن. ومع ذلك ، فإن الفرصة ليست صفر.
القواعد الأساسية لخصوصية الذكاء الاصطناعي
منع بياناتك ومطالباتك من حصادها لإعادة تدريب النموذج هو في الواقع واضح إلى حد ما. تتضمن معظم chatbots المواجهة العامة إعدادًا يمكنك ببساطة إيقاف تشغيله. بالنسبة إلى chatgpt ، كل ما عليك فعله هو الذهاب إلى ملف التعريف الخاص بك وإغلاقه “تحسين النموذج للجميع.” هذا كل شيء – الآن لن يتدرب Chatgpt على بياناتك. وإذا كنت ترغب في إيقاف تشغيل الإعداد لجلسة واحدة فقط ، فيمكنك إطلاق دردشة مؤقتة ، والتي لن تخزن أي بيانات حتى تغلق علامة التبويب المتصفح هذه. أدوات الذكاء الاصطناعي الأخرى لها ميزات مماثلة.
بالطبع ، فإن تغيير الإعداد أمر مفقود بسهولة أو نسيانه ، ولا يساعد المنظمة لأنه من المستحيل إدارته. لحسن الحظ ، يقوم معظم بائعي البرامج الذين يستخدمون الذكاء الاصطناعى بذلك عبر واجهات برمجة التطبيقات ، مما يعني عدم وجود بيانات من أي تفاعل مستخدم على الإطلاق في بيانات التدريب العام. وإذا قمت بإنشاء أدواتك الخاصة باستخدام API (أسهل مما قد تعتقد) ، فسيطبق نفس القاعدة. ومع ذلك ، سيكون لدى البائع سياسة الخصوصية الخاصة به ، منفصلة عن الذكاء الاصطناعي ، لذا تأكد من فحص ذلك بشكل صحيح أيضًا.
بالنسبة لمعظم تطبيقات الذكاء الاصطناعي ، يجب أن يوفر هذا المستوى من الخصوصية قدرًا كبيرًا من الراحة. ومع ذلك ، من الناحية الفنية ، لا تزال البيانات يجب أن تكون في سحابة مزود الذكاء الاصطناعى ، بحيث يمكن لنموذج اللغة الكبير معالجتها بسرعة كافية بحيث تحصل على الإجابة في ثوانٍ. ما يعنيه ذلك هو أن البيانات لا تزال بحاجة إلى مغادرة المبنى ، والتي قد لا يزال بعض العملاء يعتبرونها عالية الخطورة.
في هذه الحالات ، لا يوجد خيار سوى استخدام الذكاء الاصطناعي محليًا. يتضمن ذلك تنزيل وتشغيل نموذج AI على جهاز كمبيوتر أو خادم يخضع لأمان تحت سيطرتك. سيضمن ذلك أن البيانات لا تذهب أبدًا إلى مزود الذكاء الاصطناعي على الإطلاق. بالطبع ، هذا يعني أيضًا أنك عادةً لن يكون لديك أي من ميزات البرنامج التجاري ، وعليك أن تدفع تكاليف الحوسبة الخاصة بك ، فهي مرهقة من الناحية الفنية ، ومن المحتمل أن تعمل الذكاء الاصطناعي بأبطأ بكثير من الأنظمة المواجهة العامة يفعل. لكن التفاعلات ستكون خاصة بنسبة 100 ٪.
وضع خصوصية الذكاء الاصطناعي أولاً
مع فهم للمستويات المختلفة من حماية الخصوصية المتاحة ، ستتم تجهيزها لإنشاء خطة خصوصية الذكاء الاصطناعى الخاصة بك ، والتي تتضمن ثلاثة عناصر أساسية:
- إنشاء سياسة خصوصية: تحتاج القوى العاملة الخاصة بك إلى معرفة ما يمكنهم وما لا يمكنهم وضعه في نظام الذكاء الاصطناعي. القواعد البسيطة بشكل عام أفضل ، ولكن كن حذرًا: إذا كنت مقيدًا جدًا ، فأنت تخاطر ببعض الموظفين الذين يستخدمون “Shadow AI” – أداء المهام باستخدام أدوات الذكاء الاصطناعى على أجهزتهم الشخصية أو حساباتها. ليبرالية جدا ، وزيادة مخاطر التسرب. يعد تقييد بيانات العميل على نظام واحد مع خصوصية محسّنة ، على سبيل المثال ، خطوة أولى جيدة نحو نهج متوازن.
- حدد الأدوات الصحيحة: تعد حسابات الدردشة الشخصية رائعة للتجربة ، ولكنها ليست الأداة الأكثر تركيزًا على الخصوصية للعمل الحقيقي. خذ الوقت الكافي للتعرف على أدوات الأعمال أو المؤسسات التي تكون خاصة بشكل افتراضي مع تسهيل أيضًا على الفرق التعاون في المشاريع.
- لديك خطة للاستجابة لحالات الطوارئ: تحدث الأخطاء. عندما تحدث مع البيانات ، من المهم الاستجابة بسرعة وحسم ، دون إلقاء اللوم. تأكد من إمكانية الوصول إلى كل شخص في فريقك – خاصةً من يجب عليهم تصعيد المخاوف بشأن كل من بائع البرمجيات وشركة الذكاء الاصطناعى.
“هل يجب أن تثق في منظمة العفو الدولية؟” هو السؤال الخاطئ
على مدار العامين الماضيين ، تقدمت منظمة العفو الدولية من فضول يثير العقل إلى جزء سريع النمو من أعمال المعرفة. والطريقة التي يتحدث بها إليك – أحيانًا حرفياً – يجعلها تشعر وكأنها متعاون بشري حقيقي.
إلا أنها ليست إنسانية. إنه نظام معقد لمهام الحوسبة ، التي تم بناؤها من قبل الشركات بمليارات الدولارات وتحكمها برمجة محددة وقوانين وسياسات الشركة. كل شيء “تخبره” يذهب إلى هذا النظام ، لذلك من المهم اختيار كلماتك – وبياناتك – بعناية. مع الأدوات المناسبة والنهج ، ستتمكن من التعامل مع تفاعلات الذكاء الاصطناعي بثقة.
لمزيد من رؤى الذكاء الاصطناعي ، ينضم إلينا إلى أول مؤتمر منظمة العفو الدولية آفاق في ميامي ، 24-26 فبراير.
تعليق