اگه از اونایی هستی که همیشه دوست داری بدونی چرا یه آهنگ اینقدر معروف میشه، یا چطوری نمادها و معناها توی آهنگها بین مردم پخش میشه، این مقاله دقیقا برای خودته! یه تیم پژوهشی اومدن با کلی اطلاعات و ابزار باحال بررسی کردن که چطور نمادگرایی موزیکی یا همون Musical Symbolism یعنی منتقلکردن مفهومها و پیامها به زبان موسیقی، توی اجتماعهای آنلاین شکل میگیره و دست به دست میشه.
خب اولش بگم که اینا یه دیتاست خفن از ۲۷۵ تا آهنگ تاپ چارت انتخاب کردن، از همونایی که همهمون شنیدیم و تو اینترنت بحثشون داغ بوده. اما فقط به اسامی و خوانندهها بسنده نکردن! کلی داده صوتی جمع کردن مثل میزان انرژی، قابلیت رقصیدن (danceability یعنی چقدر اون آهنگ آدم رو میبره وسط مهمونی یا نه!)، بلندی صدا، شاد بودن حس آهنگ (valence)، زنده بودن اجرا (liveness)، چقدر اکوسیستیک یا همون آکوستیکه (معمولاً یعنی بدون افکت و خیلی طبیعی)، میزان حرف زدن (speechiness)، و حتی محبوبیت هر قطعه.
جالبیش اینجاست که اومدن این دیتاها رو با متن کامل شعرها ترکیب کردن! بعد کل پروسه رو هم طوری ساختن که هر کسی بخواد میتونه دوباره این آزمایش رو با داده خودش انجام بده. حالا چی کشف کردن؟
مثلاً اگه اهل دادهبازی و نمودار دیدنی هستی: طی یک دهه گذشته، انرژی آهنگها خیلی کم شده (از نمره ۷۹ اومده به ۵۸!) ولی از اون طرف امکان رقصیدن با آهنگها بیشتر شده (نمره ۵۹ رفته تا ۷۳!). یه جورایی انگار موزیکها خونسردتر ولی ریتمیکتر شدن! از نظر حس شادی یا همون valence، تو سال ۲۰۱۳ یه اوج ۶۳ داشتیم، بعد ۲۰۱۴ تا ۲۰۱۶ حسابی اُفت کرده (تا ۴۲) ولی دوباره یه مقدار برگشته بالا.
از نظر همبستگی (یعنی کدوم ویژگیها با هم وابستهن و کدوما نه)، انرژی خیلی با بلندی صدا همخونی داره (r = 0.74، این r همون ضریب همبستگیه، از ۱ تا -۱ هست و هر چی به عدد ۱ نزدیکتر باشه یعنی ارتباط قویتره). اکوستیک بودن برعکس انرژی و بلندی صداست (به ترتیب r = -۰.۵۴ و r = -۰.۵۱). اما معروف به اینکه danceability خیلی ربط به هیچ ویژگی دیگه نداره (ضریب کمتر از ۰.۲۰)، یعنی واقعا هر آهنگی ممکنه با هر حس و حالی رقصوندت.
اگه طرفدار شعر و متن آهنگها باشی: بعد از جدا کردن کلمات کلِ اشعار (یه عالمه! بیشتر از ۱۱۴ هزار تا کلمه)، معلوم شد که بیشتر از همه ضمایر مثل “I/you/me/my” یا همون “من/تو/من/مال من” توی شعرها تکرار شدن. یعنی گفتگو با آدمها یا خطاب مستقیم نقش اصلی رو داره. ضمن اینکه شبکه همرخدادی هم نشون داد وقتی این کلمات با هم میان، هستهی اصلی داستانهای جریان اصلی یا همون Mainstream رو میسازن.
حالا بریم سراغ سبکهای مختلف. مثلا آهنگای R&B (یه سبک محبوب که ریشه توی ریتم و بلوز داره و خیلیا بخاطر احساساتی بودنش میپسندن) بیشترین حس شادی رو دارن (میانگین ۹۶!)، بعدش K-pop/Pop (یعنی موسیقی پاپ کرهای و پاپ عادی، نمره ۷۷) و Indie/Pop (پاپ مستقل، نمره ۷۰). اما سبکی مثل Latin/Reggaeton با اینکه Danceability بالایی داره (یعنی واقعا راحت میشه باهاش رقصید)، حس شادی کمی داره (نمره ۳۷).
یه نکته جالب دیگه که این مقاله دیده اینه که کلی از نمادها و کدهایی که قبلا توی حاشیه بودن حالا دارن وارد جریان اصلی موسیقی میشن (mainstreaming peripheral codes یعنی مثلاً شیوه و حرفها و پیامهایی که قبلاً فقط تو سبک خاصی بود یا کسی بهش توجه نمیکرد، حالا به آهنگای همهپسند و تجاری رسیده). یعنی شرکتا و هنرمندا دنبال اینن که هر کی یه جوری بتونه تو فضای آهنگ حس حضور داشته باشه، حتی اگه اون قطعه خیلی پرانرژی نباشه، فقط کافی باشه که جمعو حفظ کنه و همه مشارکت کنن!
از لحاظ روش تحقیق هم بخوام روراست بگم، این تیم یه مدل یکپارچه ساختن که هم از دادههای موسیقی (MIR: Music Information Retrieval یعنی استخراج اطلاعات از صدا) و هم از شبکهی معنی و کلمات شعر کار میکشه. چیزایی مثل آمار خلاصه، ساختار همبستگی، ماتریسهای همرخدادی واژهها و پروفایل حس و حال هر سبک رو نشون میده. نقطه قوتش اینه که وابسته به کم یا زیاد بودن اطلاعات نمونه نیست و خیلی به درد پیشنهاددهندههای موسیقی (مثل الگوریتمهای Spotify) یا کسایی که میخوان بفهمن یه موسیقی چطوری توی اجتماع پخش میشه، میخوره.
در پایان، اگه عاشق موزیک و شبکه و دادهای، این مقاله یه دنیای تازه پیش پات باز میکنه که چطور صدای جمع، گفتگو، و نمادها با هم قاطی میشن تا موسیقی تبدیل بشه به یه تجربه اجتماعی! 😊
منبع: +