در سال ۲۰۲۴، اشتباهات هوش مصنوعی به موضوعی داغ تبدیل شد. از تولید محتوای بیکیفیت و گمراهکننده گرفته تا دیپفیکهای غیرقانونی و چتباتهای دارای مشکلات جدی، این فناوری هم فرصتها و هم چالشهای جدیدی را پیش روی ما قرار داد. این اشتباهات نه تنها اعتماد عمومی را به چالش کشیدند بلکه سؤالات مهمی درباره مسئولیتپذیری و قانونگذاری در دنیای هوش مصنوعی ایجاد کردند.
نگاهی به بزرگترین اشتباهات هوش مصنوعی در سال ۲۰۲۴
هوش مصنوعی در سالهای اخیر پیشرفتهای خیرهکنندهای داشته است. از عرضه محصولات نوآورانه تا کمک به تحقیقات برنده جایزه نوبل، هوش مصنوعی همه جا حضور داشته است. اما سال ۲۰۲۴ نشان داد که این رشد سریع بدون چالش نیست. با گسترش کاربرد مدلهای مولد، ماهیت غیرقابل پیشبینی آنها منجر به اشتباهاتی قابل توجه و گاهی نگرانکننده شد. در اینجا به برخی از مهمترین خطاهای هوش مصنوعی در سال ۲۰۲۴ و پیامدهای آنها میپردازیم.
اشباع محتوای هوش مصنوعی: ظهور محتوای بیارزش
ابزارهای هوش مصنوعی مولد، تولید متن، تصویر و ویدیو را بسیار آسان کردهاند. اما این سادگی، بهایی دارد: سیل محتوای بیکیفیت و تولید انبوه، که به آن “ضایعات هوش مصنوعی” گفته میشود. از خبرنامههای ضعیف نوشته شده تا تصاویر عجیب و غریب در رسانههای اجتماعی، این محتوای بیارزش تولید شده توسط هوش مصنوعی در سال ۲۰۲۴ تقریباً در همه جای اینترنت نفوذ کرد.
بخش زیادی از این محتوا با تحریک احساسات مخاطب – مثلاً تصاویر تولید شده توسط هوش مصنوعی از کودکان گریان یا جانبازان مجروح – برای افزایش تعامل و درآمد تبلیغات طراحی شده بود. اما مشکل عمیقتری نیز وجود دارد. این مدلهای مولد برای آموزش به دادههای اینترنتی متکی هستند و افزایش محتوای بیارزشِ تولید شده توسط هوش مصنوعی، کیفیت خروجی آینده آنها را تهدید میکند. با تغذیه مدلها از دادههای بیکیفیت، عملکرد آنها نیز افت میکند و یک چرخه معیوبِ کاهش کیفیت ایجاد میشود.
وقتی هنر هوش مصنوعی با واقعیت اشتباه گرفته میشود
تصاویر تولید شده توسط هوش مصنوعی، مرز بین واقعیت و خیال را محو کردهاند و گاهی اوقات نتایج عجیبی به بار آوردهاند. برای مثال، یک کمپین تبلیغاتی گمراهکننده با تصاویر سورئال تولید شده توسط هوش مصنوعی، انتظارات غیرواقعی برای “تجربه شکلات ویلی” – رویدادی الهام گرفته از چارلی و کارخانه شکلاتسازی – ایجاد کرد. بازدیدکنندگان از آنچه که به یک انبار ساده تبدیل شده بود، ناامید شدند.
در مثالی دیگر، یک رژه هالووین ساختگی در دوبلین – که توسط یک وبسایت پاکستانی با استفاده از هوش مصنوعی ایجاد شده بود – باعث شد صدها نفر برای رویدادی که وجود خارجی نداشت، جمع شوند. این اتفاق نشان داد که چگونه محتوای تولید شده توسط هوش مصنوعی میتواند افکار عمومی را در رسانههای اجتماعی گمراه کند و اعتماد به اطلاعات آنلاین را از بین ببرد.
گروک و اخلاق هوش مصنوعی نامحدود
xAI ایلان ماسک با دستیار هوش مصنوعی خود، گروک، وارد حوزه بحثبرانگیزی شد. برخلاف سایر ابزارهای تولید تصویر که محدودیتهای سختگیرانهای دارند، گروک به کاربران اجازه میدهد تصاویر تقریباً هر چیزی، از جمله سناریوهای خشونتآمیز یا سیاسی مانند دونالد ترامپ در حال شلیک بازوکا، را ایجاد کنند. اگرچه گروک از تولید محتوای نامناسب خودداری میکند، فقدان محدودیتهای اخلاقی آن، تلاشهای صنعت برای ساخت سیستمهای هوش مصنوعی مسئولانه را تضعیف میکند.
رسوایی دیپفیک: یک مثال تکاندهنده
در ژانویه، تصاویر دیپفیک مستهجن از خواننده تیلور سویفت که با استفاده از ابزار هوش مصنوعی مایکروسافت، دیزاینر، ایجاد شده بود، در اینترنت منتشر شد. اگرچه مایکروسافت سریعاً آسیبپذیریهایی را که سوءاستفاده را ممکن میکرد، برطرف کرد، این حادثه چالشهای مداوم تعدیل محتوای غیرقانونی را برجسته کرد. با وجود پیشرفت در واترمارک و سایر فناوریهای محافظتی، مبارزه با سوءاستفاده از دیپفیک همچنان دشوار است.
چتباتهای سرکش
در حالی که مشاغل برای افزایش کارایی به سرعت چتباتهای هوش مصنوعی را پذیرفتند، برخی با فجایع روابط عمومی مواجه شدند. ایر کانادا پس از اینکه چتباتش به اشتباه به یک مشتری در مورد سیاست بازپرداخت سوگواری – که وجود نداشت – توصیهای ارائه داد، با شکایت قانونی مواجه شد. به طور مشابه، سایر باتها توصیههای نادرست و گاهی غیرقانونی ارائه کردند. یک چتبات دولتی شهر نیویورک حتی راهنماییهایی در مورد نقض قانون ارائه کرد. این حوادث خطرات تکیه بر چتباتها برای اطلاعات حیاتی بدون نظارت کافی را نشان میدهد.
اشتباهات در سختافزار و جستجوی هوش مصنوعی
دستیارهای هوش مصنوعی مبتنی بر سختافزار نیز برای جلب توجه مصرفکنندگان تلاش کردند. برای مثال، کامپیوتر پوشیدنی یقهای هیومن، Ai Pin، با وجود کاهش قیمت، نتوانست موفق شود. به طور مشابه، دستگاه دستیار شخصی Rabbit R1 به دلیل کندی و اشکالات مورد انتقاد قرار گرفت و نشان داد که همه پیشرفتهای هوش مصنوعی نیازهای واقعی مصرفکننده را برآورده نمیکنند.
ابزارهای جستجوی مبتنی بر هوش مصنوعی نیز مشکلاتی داشتند. ویژگی نمای کلی هوش مصنوعی گوگل، که برای خلاصه کردن نتایج جستجو طراحی شده بود، پیشنهادات عجیب و غیردقیق – مانند افزودن چسب به پیتزا یا خوردن سنگ – ارائه میکرد. نگرانکنندهتر مواردی بود که خلاصههای هوش مصنوعی، تیترهای خبری جعلی برای اخبار مهم ایجاد میکردند و اعتماد به هوش مصنوعی و روزنامهنگاری معتبر را تضعیف میکردند.
درسهایی از یک سال پر از خطا
اگرچه این اشتباهات ممکن است جداگانه به نظر برسند، اما به چالشهای کلی در توسعه و استقرار هوش مصنوعی اشاره میکنند. از محتوای گمراهکننده و معضلات اخلاقی گرفته تا مشکلات فنی، سال ۲۰۲۴ یادآوری مهمی از اهمیت مسئولیتپذیری در نوآوری هوش مصنوعی بود. برای آینده، پرداختن به این چالشها برای اطمینان از اینکه هوش مصنوعی ابزاری برای خیر باشد، نه منبع آسیب، بسیار مهم است.
“`
اگر به خواندن کامل این مطلب علاقهمندید، روی لینک مقابل کلیک کنید: mit technology review