تدرب Slack نماذج التعلم الآلي على رسائل المستخدمين والملفات والمحتوى الآخر دون إذن صريح
يعتبر التدريب اختياريًا، مما يعني أن بياناتك الخاصة ستتم مصادرتها بشكل افتراضي. وما يزيد الأمور سوءًا، سيتعين عليك طلب من مسؤول Slack في منظمتك (موارد بشرية، تكنولوجيا المعلومات، إلخ) إرسال بريد إلكتروني إلى الشركة لطلب إيقاف ذلك. (لا يمكنك القيام بذلك بنفسك.) مرحبًا بكم في الجانب المظلم من ركض الذهب لبيانات التدريب للذكاء الاصطناعي الجديد.
السيد Corey Quinn، المدير في مجموعة DuckBill، لاحظ السياسة في رسالة قصيرة في مبادئ خصوصية Slack ونشر عنها على X (عبر PCMag). يقرأ القسم (تأكيدنا)، “لتطوير نماذج AI/ML، تقوم أنظمتنا بتحليل بيانات العملاء (على سبيل المثال: الرسائل، والمحتوى، والملفات) المقدمة إلى Slack، فضلاً عن المعلومات الأخرى (بما في ذلك معلومات الاستخدام) كما تم تعريفها في سياسة الخصوصية الخاصة بنا وفي اتفاقية العميل الخاصة بكم.”
ردًا على المخاوف من هذه الممارسة، نشرت Slack مدونة يوم الجمعة لتوضيح كيفية استخدام بيانات عملائها. ووفقًا للشركة، لا تستخدم بيانات العميل لتدريب أي من منتجاتها السابقة الذكاء الاصطناعي — التي تعتمد على موديلات LLM من جهات خارجية — ولكن تُطعم نماذج التعلم الآلي الخاصة بها لمنتجات “مثل توصيات القناة والإيموجي ونتائج البحث.” بالنسبة لتلك التطبيقات، تقول المدونة، “تستخدم نماذج ML التقليدية لـ Slack البيانات الهجينة والتي لا تدخل فيها محتوى الرسائل في DMs والقنوات الخاصة والقنوات العامة.” قد تشمل تلك البيانات أمورًا مثل علامات الزمن للرسائل وعدد التفاعلات بين المستخدمين.
أعاد المتحدث باسم Salesforce هذا التأكيد في بيان لإنجادجت، قائلاً أيضًا أنه “نحن لا نبني أو ندرب تلك النماذج بطريقة تسمح لها بتعلم بيانات العميل أو حفظها أو إعادة إنتاجها.”
I’m sorry Slack, you’re doing fucking WHAT with user DMs, messages, files, etc? I’m positive I’m not reading this correctly. pic.com/6ORZNS2RxC
— Corey Quinn (@QuinnyPig) May 16, 2024
يتطلب عملية عدم المشاركة منك القيام بكل العمل لحماية بياناتك. وفقًا لإشعار الخصوصية، “لكي تعدم المشاركة، يرجى من أصحاب المنظمات أو مالكي مساحة العمل أو المالك الأساسي الاتصال بفريق تجربة العملاء لدينا على feedback@slack.com مع عنوان URL مساحة العمل/المنظمة الخاصة بكم وبموضوع “طلب عدم مشاركة النموذج العالمي لـ Slack.” سنعمل على معالجة طلبك والرد بمجرد اكتمال العملية.
ردت الشركة على رسالة كوين على X: “للتوضيح، Slack لديها نماذج تعلم الآلة على مستوى منصة لأمور مثل توصيات القناة والإيموجي ونتائج البحث. ونعم، يمكن للعملاء استبعاد بياناتهم من مساعدة تدريب تلك النماذج (التعليمية غير التوليدية).”
من غير واضح منذ متى قامت الشركة التابعة لـ Salesforce بشطب الحقلة في شروطها. فإنه من الأفضل التضليل، في أحسن الحالات، أن نقول إن العملاء يمكنهم اختيار الخروج عندما “العملاء” لا يشمل الموظفين العاملين في منظمة ما. بإمكانهم طلب من أي شخص يدير وصول Slack لدى شركتهم القيام بذلك — وآمل أن يستجيبوا.
تزيد التناقضات في سياسات الخصوصية في Slack من الارتباك. يقول قسم واحد “عند تطوير نماذج الذكاء الاصطناعي/تعلم الآلة أو تحليل بيانات العملاء، لا يمكن لـ Slack الوصول إلى المحتوى الأساسي. لدينا تدابير تقنية مختلفة تمنع ذلك من الحدوث.” ومع ذلك، يبدو أن سياسة تدريب النماذج ذات التعلم الآلي تتعارض على ما يبدو مع هذا البيان، مما يترك الكثير من المجال للارتباك.
بالإضافة إلى ذلك، تقرأ صفحة Slack التي تسوق أدواتها الذكية الاصطناعية على شكل مقال عند الطلب، “اعمل دون قلق. بياناتك هي بياناتك. نحن لا نستخدمها لتدريب ذكاء Slack AI. كل شيء يعمل على بنية Slack الآمنة، ويستوفي نفس معايير الامتثال التي يستوفيها Slack نفسه.”
في هذه الحالة، تتحدث الشركة عن أدواتها الذكية الاصطناعية الخاصة بالعملاء، والتي تختلف عن النماذج التعلمية الآلية التي تدرب عليها دون إذن صريح. ومع ذلك، كما يشير PCMag، فإن الإشارة إلى أن جميع بياناتك آمنة من تدريب الذكاء الاصطناعي هي، في أحسن الحالات، بيان غير دقيق للغاية عندما يبدو أن الشركة تحدد أي نماذج من ذلك البيان تشمل.
تحديث، 18 مايو 2024، 3:24 مساءً بالتوقيت الشرقي: تم تحديث القصة لتضمين معلومات جديدة من Slack، التي نشرت مدونة لشرح ممارساتها استجابةً لمخاوف المجتمع.
تحديث، 19 مايو 2024، 12:41 مساءً بالتوقيت الشرقي: تم تحديث القصة والعنوان ليعكسا السياق الإضافي الذي قدمته Slack حول كيفية استخدام بيانات العميل.
Leave a reply