هوش مصنوعی همه‌جا هست، اما شرکت‌ها هنوز بلد نیستن چه جوری ازش پول دربیارن!

بیا یه کم با هم حرف بزنیم درباره اینکه هوش مصنوعی (همون AI) چه جوری داره تو همه اپلیکیشنا جاخوش می‌کنه، ولی شرکتا هنوز درست و حسابی بلد نیستن ازش سود ببرن! یه گزارشی که F5 منتشر کرده، خیلی نکات جالبی رو گفته.

اول اینو بدون که تقریباً هر چهار اپلیکیشن، یکی‌شون الان هوش مصنوعی هم تو خودش داره. یعنی چی؟ یعنی شرکتا دارن AI رو به بخش‌های مختلف سرویس‌ها و محصولاتشون اضافه می‌کنن تا حرفه‌ای‌تر و به‌روزتر باشن.

اما اینو داشته باش که فقط ۲ درصد از شرکتای بزرگ واقعاً برای هوش مصنوعی حسابی آماده‌ان! یعنی چیزی حدود کشک! تازه بیشتر از ۲۱ درصدشون تو گروهی قرار می‌گیرن که آمادگی‌شون برای کار با AI خیلی پایینه، و اکثربازیاشون (یعنی ۷۷ درصد) یه جورایی نصفه‌نیمه و میان‌مایه آماده‌ان. خلاصه اینجوری بگم: بیشترشون هنوز با چالش‌های امنیت و مدیریت (مثلاً governanace یعنی قوانین و سیاست‌هایی که تعیین می‌کنن چه کسی چه جوری از دیتا و ابزارهای AI استفاده کنه) دست و پنجه نرم می‌کنن.

یک نکته مهم اینه که خیلی از شرکت‌ها دارن از مدل‌های مختلف هوش مصنوعی استفاده می‌کنن؛ هم مدل‌های پولی مثل GPT-4 (همون که چت‌جی‌پی‌تی باهاش درست شده) و هم مدل‌های متن‌باز (open-source یعنی رایگان و کدش برای همه در دسترسه) مثل Llama یا Mistral یا Gemma. جالبیش اینه که ۶۵ درصد از شرکت‌ها حداقل از دو مدل پولی و یه مدل متن‌باز با هم استفاده می‌کنن – انگار دنبال اینن که همزمان همه جا رو تست کنن و یه ترکیبی از امکاناتو بگیرن!

حالا مشکل اصلی چیه؟ تو اون گزارش نوشته فقط ۳۱ درصد شرکتا اومدن فایروال برای هوش مصنوعی گذاشتن. فایروال هوش مصنوعی یه جور دیوار محافظ هست که جلوی هک شدن یا سو استفاده از مدل‌های AI رو می‌گیره. فقط یه چهارم شرکتا (۲۴ درصد) دارن مدام داده‌هاشونو لیبل‌گذاری می‌کنن. منظور از لیبل‌گذاری دیتا اینه که اطلاعات رو دسته‌بندی کنی تا مدل AI بهتر بفهمه هر چیزی چیه – مثلاً تو یه عکس بفهمه این آدمه، اون درخته و … اگه این کار رو نکنی، ریسک اشتباه و خرابکاری بالا میره.

حالا تقریباً نصف شرکتا (۴۷ درصدشون) میگن برنامه دارن که تو این یک سال آینده، فایروال مخصوص AI راه بندازن. خود شرکت F5 هم پیشنهاد داده که شرکت‌ها بیشتر مدل‌های AI شون رو تنوع بدن (یعنی محدود به یه مدل نباشن)، هوش مصنوعی رو تو بخش‌های دیگه مثلا تحلیل داده یا بخش عملیات و امنیت وارد کنن، و حسابی تمرکز بذارن روی محافظت‌های مخصوص AI مثل همین فایروال‌ها و قوانین مربوط به دیتا.

جان مدیسون (John Maddison)، مدیر ارشد محصولات F5 میگه: «وقتی هوش مصنوعی میشه قسمت مرکزی استراتژی یه بیزینس، دیگه فقط تست و بازی باهاش کافی نیست. باید امنیت و مقیاس‌پذیری داشته باشی و همه کارات با هم هماهنگ باشه.» مقیاس‌پذیری یعنی اینکه وقتی کار زیاد شد، سیستم هنوز درست کار کنه و کم نیاره.

یه نکته مهم توی گزارش اینه که شرکتایی که تجربه و بلوغ کافی ندارن (یعنی هنوز تازه‌کارن توی استفاده از AI)، رشدشون کندتر میشه، تو کار خودشون گیر و گور پیدا می‌کنن و حتی ممکنه مشکل قانون و نظارتی براشون پیش بیاد. مثلاً regulatory bodies یعنی همون سازمان‌هایی که قوانین رو تعیین و نظارت می‌کنن، ممکنه بیان سخت‌گیری کنن.

مدیسون دوباره اشاره می‌کنه که هوش مصنوعی الان داره عملیات امنیتی شرکتا رو عوض می‌کنه، ولی اگه بدون مدیریت و محافظت کافی بشه، عملاً ممکنه کلی تهدید و مشکل جدید خودش به وجود بیاره!

در آخر، اگه دنبال اینی که ابزارهای خوب هوش مصنوعی یا نویسنده‌های AI یا حتی اپلیکیشن‌های بهره‌وری (یعنی اپ‌هایی که کارتو سریع‌تر و راحت‌تر میکنن) رو بشناسی، کلی سایت هست که لیست بهتریناشو آوردن. تازه خیلی از شرکت‌های کوچیک هم گفتن نمی‌تونن راحت از هوش مصنوعی استفاده کنن و نیاز به آموزشای بیشتری دارن.

خلاصه داستان رو اینجوری جمعبندی می‌کنم: هوش مصنوعی همه جا هست و داره همه رو به وجد میاره، ولی هنوز کلی شرکت بلد نیستن چه جوری باید امنیتشو تامین کنن، قوانینشو رفیق خودشون کنن و ازش بهینه استفاده کنن. راه حل؟ بیشتر فکر کنن به امنیت، آموزش، تنوع مدل‌ها و داشتن استراتژی درست! اینطوری دیگه هم هوش مصنوعی آسیب نمی‌رسونه و هم میشه باهاش کلی اتفاق خوب رقم زد.

منبع: +