ماجراهای WeTransfer و ماجرای ترسناکش با هوش مصنوعی: قراره واقعاً داده‌هامونو بخورن؟ 😬

اگه از WeTransfer برای فرستادن فایل‌هات استفاده می‌کنی، احتمالاً این هفته یه خبر داغ رو دیدی که کلی سر و صدا راه انداخت! قضیه از این قرار بود که WeTransfer قوانین استفاده‌ش رو (که معروف به Terms of Service یا همون ToS هست) آپدیت کرد و مردم فکر کردن که حالا دیگه WeTransfer قراره فایل‌هایی که آپلود می‌کنیم رو برای آموزش هوش مصنوعی (AI) استفاده کنه!

🔍 این ماجرای لو رفتن قوانین رو اینجوری شروع کرد: توی متن جدید ToS یه جاییش نوشته بودن که ماحق داریم داده‌های شما رو برای “بهبود سرویس و فناوری‌های جدید، از جمله بهبود عملکرد مدل‌های یادگیری ماشین (Machine Learning) که برای ارتقا فرایند کنترل محتوا استفاده می‌شن” استفاده کنیم، البته طبق سیاست حریم خصوصی. اینجا یادگیری ماشین یا Machine Learning یه شاخه از هوش مصنوعیه که باعث میشه سیستم بتونه از داده‌ها یاد بگیره و خودش بهتر بشه – مثلاً سیستم‌هایی مثل DALL·E یا ChatGPT که می‌تونن متن و عکس تولید کنن.

اما این جمله کلی، خیلیا رو نگران کرد که نکنه هر فایلی بفرستیم، میره تو خوراک هوش مصنوعی شرکت و شاید مثلاً طرح یا آهنگ یا عکس‌مون یه روز توسط یه ربات جالب بازسازی بشه! یه سری از کاربران حرفه‌ای و خلاق (مثل عکاس‌ها، آرتیست‌ها یا موزیسین‌ها) حسابی شاکی شدن و حتی اعلام کردن می‌خوان برن سراغ سرویس‌های جایگزین (مثل Filemail، Smash یا alternatives دیگه) یا حداقل پیش از آپلود فایل‌ها حتماً رمزگذاری‌شون کنن (encrypt کنن، یعنی فایل رو قفل کنن تا کسی نتونه بازش کنه).

تو توییتر هم کلی جوک و اعتراض منتشر شد که WeTransfer از 8 آگوست، صاحب هر چی آپلود کنیم میشه و باهاش AI می‌سازه! خلاصه کم کم اوضاع داشت از کنترل خارج می‌شد.

🎯 خود WeTransfer که متوجه آشوب شد فوراً وارد عمل شد، توی وبلاگ رسمی‌شون توضیح دادن و یه عالمه قول دادن که اصلاً قرار نیست بدون اجازه، هیچ دیتایی برای تمرین هوش مصنوعی استفاده کنن. گفتن که هدفشون فقط این بوده که مشخص کنن سیستم باید بتونه برای رفع باگ و بهتر شدن حجم فایل‌ها و… به طور محدود به دیتا دسترسی داشته باشه، اما اینکه فایل‌های شما بره تو هر مدل هوش مصنوعی که خودمون دوست داشتیم، اصلاً جزو برنامه‌هامون نیست!

✍️ برای اطمینان بیشتر، کل جمله مربوط به Machine Learning رو خط زدن و قوانین رو با جمله‌بندی خیلی شفاف‌تر عوض کردن. حالا لفظی از یادگیری ماشین یا هوش مصنوعی توش نیست و فقط می‌گن برای بهبود سرویس لازمه چند تا دسترسی پایه‌ای داشته باشیم (که این بین همه سرویسا رایجه). تازه تاکید کردن که مالکیت فایل‌ها کاملاً دستِ خود کاربر می‌مونه و هیچ دستبردی توش نخواهیم زد.

این ماجرا یه کم یادآور قصه پارسال Dropbox هم هست. اون موقع هم Dropbox یه بند تو قوانینش گذاشته بود که مردم فکر کردن قراره فایل‌هاشون برای آموزش هوش مصنوعی مصرف بشه. اونجا هم وقتی بالاخره کاربران شاکی شدن، شرکت هی عذرخواهی کرد و متن قوانین رو رسماً درست کرد!

واقعیت اینه که الان دیگه آدم‌ها مخصوصاً کسایی که با خلاقیت و محتوای خاص سروکار دارن، خیلی حساس شدن سر این قضیه. چون یه نمونه‌هاش رو با سرویس‌هایی مثل DALL·E و Midjourney یا خود ChatGPT دیدن – یعنی هوش مصنوعی‌ها کلی مطلب و اثر هنری رو خوراک خودشون کردن و حالا یه عالمه هنرمند از شرکت‌ها شکایت می‌کنن که چرا کارمون رو بی‌اجازه خوردین! برای همین مردم نسبت به هر چیزی که حتی بوی استفاده عجیب از داده‌ها بده، فوراً واکنش نشون میدن و راحت به شرکت‌ها اعتماد نمی‌کنن.

🔥 حالا WeTransfer هم فهمیده باید از همون اول همه چی رو کامل روشن و شفاف کنه. حتی یه اداپتوره قانونی اشتباه یا جمله‌بندی مبهم ظرف چند ساعت می‌تونه تبدیل به بحران بشه و باعث بشه کلی کاربر کوچ کنن! پس برای هر شرکتی الان لازمه از همون اول به کاربراش خیال بده که داده‌هاشون امنه و تحت کنترل خودشونه؛ مخصوصاً حالا که هوش مصنوعی داره همه جا سرک می‌کشه!

در کل، پیشنهاد من بهت اینه که هر وقت داشتی از یه سرویس آنلاین استفاده می‌کردی – مخصوصاً اگه کار خلاقانه داری – حتماً یه نگاهی به سیاست‌های حریم خصوصی و قوانین استفاده بندازی و اگه متنی عجیب دیدی، نترسی بپرسی یا حتی فیدبک بدی! شرکت‌ها سخت‌تر از اون چیزی که فکرش رو می‌کنی به نظر و واکنش کاربران اهمیت میدن و سریع هم متن رو اصلاح می‌کنن!

راستی، اگه دوست داری بدونی چطور می‌تونی گفتگوهای ChatGPT رو امن‌تر نگه داری یا درباره ذخیره شدن دیتاها توسط شرکت‌های AI اطلاعات بیشتری پیدا کنی، سری بعد پایین مقاله لینک چندتا مطلب مرتبط رو هم چک کن 😉

منبع: +