اگه از WeTransfer برای فرستادن فایلهات استفاده میکنی، احتمالاً این هفته یه خبر داغ رو دیدی که کلی سر و صدا راه انداخت! قضیه از این قرار بود که WeTransfer قوانین استفادهش رو (که معروف به Terms of Service یا همون ToS هست) آپدیت کرد و مردم فکر کردن که حالا دیگه WeTransfer قراره فایلهایی که آپلود میکنیم رو برای آموزش هوش مصنوعی (AI) استفاده کنه!
🔍 این ماجرای لو رفتن قوانین رو اینجوری شروع کرد: توی متن جدید ToS یه جاییش نوشته بودن که ماحق داریم دادههای شما رو برای “بهبود سرویس و فناوریهای جدید، از جمله بهبود عملکرد مدلهای یادگیری ماشین (Machine Learning) که برای ارتقا فرایند کنترل محتوا استفاده میشن” استفاده کنیم، البته طبق سیاست حریم خصوصی. اینجا یادگیری ماشین یا Machine Learning یه شاخه از هوش مصنوعیه که باعث میشه سیستم بتونه از دادهها یاد بگیره و خودش بهتر بشه – مثلاً سیستمهایی مثل DALL·E یا ChatGPT که میتونن متن و عکس تولید کنن.
اما این جمله کلی، خیلیا رو نگران کرد که نکنه هر فایلی بفرستیم، میره تو خوراک هوش مصنوعی شرکت و شاید مثلاً طرح یا آهنگ یا عکسمون یه روز توسط یه ربات جالب بازسازی بشه! یه سری از کاربران حرفهای و خلاق (مثل عکاسها، آرتیستها یا موزیسینها) حسابی شاکی شدن و حتی اعلام کردن میخوان برن سراغ سرویسهای جایگزین (مثل Filemail، Smash یا alternatives دیگه) یا حداقل پیش از آپلود فایلها حتماً رمزگذاریشون کنن (encrypt کنن، یعنی فایل رو قفل کنن تا کسی نتونه بازش کنه).
تو توییتر هم کلی جوک و اعتراض منتشر شد که WeTransfer از 8 آگوست، صاحب هر چی آپلود کنیم میشه و باهاش AI میسازه! خلاصه کم کم اوضاع داشت از کنترل خارج میشد.
🎯 خود WeTransfer که متوجه آشوب شد فوراً وارد عمل شد، توی وبلاگ رسمیشون توضیح دادن و یه عالمه قول دادن که اصلاً قرار نیست بدون اجازه، هیچ دیتایی برای تمرین هوش مصنوعی استفاده کنن. گفتن که هدفشون فقط این بوده که مشخص کنن سیستم باید بتونه برای رفع باگ و بهتر شدن حجم فایلها و… به طور محدود به دیتا دسترسی داشته باشه، اما اینکه فایلهای شما بره تو هر مدل هوش مصنوعی که خودمون دوست داشتیم، اصلاً جزو برنامههامون نیست!
✍️ برای اطمینان بیشتر، کل جمله مربوط به Machine Learning رو خط زدن و قوانین رو با جملهبندی خیلی شفافتر عوض کردن. حالا لفظی از یادگیری ماشین یا هوش مصنوعی توش نیست و فقط میگن برای بهبود سرویس لازمه چند تا دسترسی پایهای داشته باشیم (که این بین همه سرویسا رایجه). تازه تاکید کردن که مالکیت فایلها کاملاً دستِ خود کاربر میمونه و هیچ دستبردی توش نخواهیم زد.
این ماجرا یه کم یادآور قصه پارسال Dropbox هم هست. اون موقع هم Dropbox یه بند تو قوانینش گذاشته بود که مردم فکر کردن قراره فایلهاشون برای آموزش هوش مصنوعی مصرف بشه. اونجا هم وقتی بالاخره کاربران شاکی شدن، شرکت هی عذرخواهی کرد و متن قوانین رو رسماً درست کرد!
واقعیت اینه که الان دیگه آدمها مخصوصاً کسایی که با خلاقیت و محتوای خاص سروکار دارن، خیلی حساس شدن سر این قضیه. چون یه نمونههاش رو با سرویسهایی مثل DALL·E و Midjourney یا خود ChatGPT دیدن – یعنی هوش مصنوعیها کلی مطلب و اثر هنری رو خوراک خودشون کردن و حالا یه عالمه هنرمند از شرکتها شکایت میکنن که چرا کارمون رو بیاجازه خوردین! برای همین مردم نسبت به هر چیزی که حتی بوی استفاده عجیب از دادهها بده، فوراً واکنش نشون میدن و راحت به شرکتها اعتماد نمیکنن.
🔥 حالا WeTransfer هم فهمیده باید از همون اول همه چی رو کامل روشن و شفاف کنه. حتی یه اداپتوره قانونی اشتباه یا جملهبندی مبهم ظرف چند ساعت میتونه تبدیل به بحران بشه و باعث بشه کلی کاربر کوچ کنن! پس برای هر شرکتی الان لازمه از همون اول به کاربراش خیال بده که دادههاشون امنه و تحت کنترل خودشونه؛ مخصوصاً حالا که هوش مصنوعی داره همه جا سرک میکشه!
در کل، پیشنهاد من بهت اینه که هر وقت داشتی از یه سرویس آنلاین استفاده میکردی – مخصوصاً اگه کار خلاقانه داری – حتماً یه نگاهی به سیاستهای حریم خصوصی و قوانین استفاده بندازی و اگه متنی عجیب دیدی، نترسی بپرسی یا حتی فیدبک بدی! شرکتها سختتر از اون چیزی که فکرش رو میکنی به نظر و واکنش کاربران اهمیت میدن و سریع هم متن رو اصلاح میکنن!
راستی، اگه دوست داری بدونی چطور میتونی گفتگوهای ChatGPT رو امنتر نگه داری یا درباره ذخیره شدن دیتاها توسط شرکتهای AI اطلاعات بیشتری پیدا کنی، سری بعد پایین مقاله لینک چندتا مطلب مرتبط رو هم چک کن 😉
منبع: +