بیا یه کم با هم حرف بزنیم درباره اینکه هوش مصنوعی (همون AI) چه جوری داره تو همه اپلیکیشنا جاخوش میکنه، ولی شرکتا هنوز درست و حسابی بلد نیستن ازش سود ببرن! یه گزارشی که F5 منتشر کرده، خیلی نکات جالبی رو گفته.
اول اینو بدون که تقریباً هر چهار اپلیکیشن، یکیشون الان هوش مصنوعی هم تو خودش داره. یعنی چی؟ یعنی شرکتا دارن AI رو به بخشهای مختلف سرویسها و محصولاتشون اضافه میکنن تا حرفهایتر و بهروزتر باشن.
اما اینو داشته باش که فقط ۲ درصد از شرکتای بزرگ واقعاً برای هوش مصنوعی حسابی آمادهان! یعنی چیزی حدود کشک! تازه بیشتر از ۲۱ درصدشون تو گروهی قرار میگیرن که آمادگیشون برای کار با AI خیلی پایینه، و اکثربازیاشون (یعنی ۷۷ درصد) یه جورایی نصفهنیمه و میانمایه آمادهان. خلاصه اینجوری بگم: بیشترشون هنوز با چالشهای امنیت و مدیریت (مثلاً governanace یعنی قوانین و سیاستهایی که تعیین میکنن چه کسی چه جوری از دیتا و ابزارهای AI استفاده کنه) دست و پنجه نرم میکنن.
یک نکته مهم اینه که خیلی از شرکتها دارن از مدلهای مختلف هوش مصنوعی استفاده میکنن؛ هم مدلهای پولی مثل GPT-4 (همون که چتجیپیتی باهاش درست شده) و هم مدلهای متنباز (open-source یعنی رایگان و کدش برای همه در دسترسه) مثل Llama یا Mistral یا Gemma. جالبیش اینه که ۶۵ درصد از شرکتها حداقل از دو مدل پولی و یه مدل متنباز با هم استفاده میکنن – انگار دنبال اینن که همزمان همه جا رو تست کنن و یه ترکیبی از امکاناتو بگیرن!
حالا مشکل اصلی چیه؟ تو اون گزارش نوشته فقط ۳۱ درصد شرکتا اومدن فایروال برای هوش مصنوعی گذاشتن. فایروال هوش مصنوعی یه جور دیوار محافظ هست که جلوی هک شدن یا سو استفاده از مدلهای AI رو میگیره. فقط یه چهارم شرکتا (۲۴ درصد) دارن مدام دادههاشونو لیبلگذاری میکنن. منظور از لیبلگذاری دیتا اینه که اطلاعات رو دستهبندی کنی تا مدل AI بهتر بفهمه هر چیزی چیه – مثلاً تو یه عکس بفهمه این آدمه، اون درخته و … اگه این کار رو نکنی، ریسک اشتباه و خرابکاری بالا میره.
حالا تقریباً نصف شرکتا (۴۷ درصدشون) میگن برنامه دارن که تو این یک سال آینده، فایروال مخصوص AI راه بندازن. خود شرکت F5 هم پیشنهاد داده که شرکتها بیشتر مدلهای AI شون رو تنوع بدن (یعنی محدود به یه مدل نباشن)، هوش مصنوعی رو تو بخشهای دیگه مثلا تحلیل داده یا بخش عملیات و امنیت وارد کنن، و حسابی تمرکز بذارن روی محافظتهای مخصوص AI مثل همین فایروالها و قوانین مربوط به دیتا.
جان مدیسون (John Maddison)، مدیر ارشد محصولات F5 میگه: «وقتی هوش مصنوعی میشه قسمت مرکزی استراتژی یه بیزینس، دیگه فقط تست و بازی باهاش کافی نیست. باید امنیت و مقیاسپذیری داشته باشی و همه کارات با هم هماهنگ باشه.» مقیاسپذیری یعنی اینکه وقتی کار زیاد شد، سیستم هنوز درست کار کنه و کم نیاره.
یه نکته مهم توی گزارش اینه که شرکتایی که تجربه و بلوغ کافی ندارن (یعنی هنوز تازهکارن توی استفاده از AI)، رشدشون کندتر میشه، تو کار خودشون گیر و گور پیدا میکنن و حتی ممکنه مشکل قانون و نظارتی براشون پیش بیاد. مثلاً regulatory bodies یعنی همون سازمانهایی که قوانین رو تعیین و نظارت میکنن، ممکنه بیان سختگیری کنن.
مدیسون دوباره اشاره میکنه که هوش مصنوعی الان داره عملیات امنیتی شرکتا رو عوض میکنه، ولی اگه بدون مدیریت و محافظت کافی بشه، عملاً ممکنه کلی تهدید و مشکل جدید خودش به وجود بیاره!
در آخر، اگه دنبال اینی که ابزارهای خوب هوش مصنوعی یا نویسندههای AI یا حتی اپلیکیشنهای بهرهوری (یعنی اپهایی که کارتو سریعتر و راحتتر میکنن) رو بشناسی، کلی سایت هست که لیست بهتریناشو آوردن. تازه خیلی از شرکتهای کوچیک هم گفتن نمیتونن راحت از هوش مصنوعی استفاده کنن و نیاز به آموزشای بیشتری دارن.
خلاصه داستان رو اینجوری جمعبندی میکنم: هوش مصنوعی همه جا هست و داره همه رو به وجد میاره، ولی هنوز کلی شرکت بلد نیستن چه جوری باید امنیتشو تامین کنن، قوانینشو رفیق خودشون کنن و ازش بهینه استفاده کنن. راه حل؟ بیشتر فکر کنن به امنیت، آموزش، تنوع مدلها و داشتن استراتژی درست! اینطوری دیگه هم هوش مصنوعی آسیب نمیرسونه و هم میشه باهاش کلی اتفاق خوب رقم زد.
منبع: +