ما گروهی از سوسیالیست‌های ایران، باورمند به دگرگونی‌های بنیادین اجتماعی_اقتصادی برآنیم با ارایه بدیل سوسیالیستی برخاسته از گویه‌ی جمعی پویا، خلاق و بهم پیوسته و با درس آموزی از تجارب انقلابی تاریخ بشری در جهان و تاریخ معاصر جامعه ایرانی، راه حل های اساسی را از دل واقعیت‌ها، تعارضات و تضادهای طبقاتی موجود، کشف، ارائه و به کار بندیم.



یانیس واروفاکیس‌های جعلی در یوتیوب – گفت‌وگویی با یانیس واروفاکیس در برنامهٔ آن‌هِرد (Unherd)

دو دقیقه از تماشای ویدئو گذشته بود که فهمیدم خودم نیستم. دو دقیقه، وقتی کسی دارد چیزهایی می‌گوید که هرگز نگفته‌اید، اما ‏می‌توانستید گفته باشید، یک ابدیت است. یک کانال را پایین آوردند و سپس ظرف چند ثانیه همان محتوا با همان ویدئوها، اما ‏با نامی دیگر، در کانالی متفاوت دوباره ظاهر شد. فهمیدم که ما- «رعیت‌های ابری»- حتی بر هویت دیداری‌ـ‌شنیداری خودمان ‏هم نه کنترل داریم، نه مالکیت، و نه حقوق مالکانه. این همان تکنوفئودالیسم است که از کنترل خارج شده است.‏

 


 

 

یانیس واروفاکیس‌های جعلی در یوتیوب

گفت‌وگویی با یانیس واروفاکیس در برنامهٔ آن‌هِرد (Unherd)

ترجمهٔ مینا آگاه – اندیشهٔ نو

چهارشنبه ۱۷ دی ۱۴۰۴

دو دقیقه از تماشای ویدئو گذشته بود که فهمیدم خودم نیستم. دو دقیقه، وقتی کسی دارد چیزهایی می‌گوید که هرگز نگفته‌اید، اما ‏می‌توانستید گفته باشید، یک ابدیت است. یک کانال را پایین آوردند و سپس ظرف چند ثانیه همان محتوا با همان ویدئوها، اما ‏با نامی دیگر، در کانالی متفاوت دوباره ظاهر شد. فهمیدم که ما- «رعیت‌های ابری»- حتی بر هویت دیداری‌ـ‌شنیداری خودمان ‏هم نه کنترل داریم، نه مالکیت، و نه حقوق مالکانه. این همان تکنوفئودالیسم است که از کنترل خارج شده است.‏

مصاحبه کننده: سلام و به برنامهٔ «آن‌هِرد» (Unherd) خوش آمدید. کریسمس و سال نو مبارک. پرسش امروز این است: از کجا می‌دانید که من ‏واقعاً فرِدی سایرزِ (Freddie Sayers) مُجری برنامهٔ «آن‌هِرد» هستم و نه یک شخصیت جعلی (دیپ‌فِیک)۱ ساخته‌شده توسط هوش مصنوعی که ‏با لهجهٔ کاملاً بریتانیایی‌ام از یک استودیوی خیالی برای شما پخش می‌شود؟ خب، شاید ندانید. و دلیلش این است که یک فرد ‏مشخص، کسی که او را به‌خوبی می‌شناسیم، بیش از اغلب افراد هدف دیپ‌فیک قرار گرفته است. ویدئوهایی از او در سراسر ‏اینترنت ظاهر شده که ظاهراً دربارهٔ اوضاع جهان سخن می‌گوید و صدها هزار بازدید می‌گیرد، اما در واقع اصلاً خودِ او ‏نیست. منظورم یانیس واروفاکیس است، کسی که علاوه بر اینکه وزیر دارایی پیشین یونان است، یکی از شناخته‌شده‌ترین مفسران امور ‏جاری و اقتصاد هم است. با افتخار باید بگویم هم‌مُجری پادکست اختصاصی ما «اکونوکلاستز» (Econoclasts) نیز هست.‏
یانیس از طریق ارتباط تلفنی از یونان به ما می‌پیوندد تا دربارهٔ این اتفاق عجیب که برایش رخ داده و اینکه واقعاً ممکن است ‏خیلی زود برای همهٔ ما رخ دهد صحبت کند. یانیس، دوباره به «آن‌هِرد» خوش آمدی.‏

واروفاکیس: خب، ممنونم فرِدی. سال نو را به همه تبریک می‌گویم.

مصاحبه‌کننده: پس یانیس، فکر می‌کنم باید از اینجا شروع کنیم که نگاهی به چند تا از این ویدئوها بیندازیم. من تمام تلاشم را ‏می‌کنم تا اگر کسی این برنامه را به‌صورت پادکست گوش می‌دهد، بفهمد این ویدئو‌ها شبیه چه چیزی هستند. واقعاً تا حدی ‏گیج‌کننده‌اند. کلیپ اول را پخش کنیم، بیایید نگاهی بیندازیم.‏
‏«رئیس‌جمهور ایالات متحده، پس از اعزام یک ناو هواپیمابر، کشتن ۹۵ نفر، توقیف نفت‌کش‌ها و اعلام محاصره، با رهبری ‏که می‌کوشید سرنگون کند، تماس گرفت و با پاسخ منفی مواجه شد. آن تماس تلفنی همان لحظه‌ای بود که آمریکا جنگ نفت را ‏باخت. اما نکته‌ای هست که هیچ‌کس درک نمی‌کند: آمریکا با ونزوئلا نمی‌جنگید. آمریکا با چین می‌جنگید. و چین پیشاپیش ‏پیروز شده بود. بگذارید نشانتان بدهم چگونه. من یانیس واروفاکیس، وزیر دارایی پیشین هستم.»‏
پس اینکه می گوید: «من یانیس واروفاکیس، وزیر دارایی پیشین هستم» ظاهراً درست نیست. شما واروفاکیس نیستید، یک ‏ربات هوش مصنوعی هستید. اما فقط با نگاه کردن به برخی از نظرها زیر آن ویدئو، اگر بینندهٔ تصویری باشید می‌توانم ‏بعضی از آنها را روی صفحه نشان بدهم، می‌بینید که صدها نظر از مردم واقعاً با محتوا درگیر شده‌ و نظر داده‌اند.
‏«مادورو از قذافی خوب درس گرفت.»
‏«ناوهای جنگی چین، موشک‌های روسیه.»
‏«دانشمندان هشدار داده بودند که اسلحه‌سازی از دلار اقدامی انتحاری است.»
‏«خیلی خوشحالم که در این کانال عضو شدم.»
‏«۷۱ ساله‌ام و هرگز فکر نمی‌کردم زنده باشم و افول هژمونی آمریکا را ببینم»، و الی آخر.
بنابراین مردم هیچ تصوری ندارند که این واقعی نیست. بیایید یکی دیگر را هم ببینیم.‏
«‎آنچه دارد رخ می‌دهد، یک درگیری میدانیِ جدا افتاده از (روند موجود) نیست. این نتیجهٔ عینیِ یک توهم ژئوپلیتیکیِ ‏گسترده‌تر است که از پایان جنگ سرد، آمریکا را آزار داده است‎.»
یانیس در آن کلیپ کمی شبیه «سریال پیشتازان فضا» به نظر می‌رسد، اما با همان بیان پرقدرت و هیجان‌انگیز و همان قالب ‏‏«دست از کار بکش و گوش بده» که به آن عادت کرده‌ایم و دوستش داریم. و باید گفت این را هم به‌خوبی بازتولید می‌کند. ‏بیایید یکی دیگر را پخش کنیم.‏
«‎می‌خواهم با پرسشی شروع کنم که تقریباً هیچ‌کس در واشنگتن آن را با صدای بلند مطرح نمی‌کند: اگر اسرائیل دیگر منبع ‏ثبات منطقه‌ای نباشد، بلکه کانونِ شوکِ سیستماتیکِ بعدی باشد، چه؟‎»
این جمله با لحنی بسیار تأثیرگذار و متقاعدکننده بیان شده و طوری القا می‌کند که گویی یک رویداد مهم در آستانهٔ وقوع است ‏و همین حالا در جریان است. و یانیس، با بلاغتی که ظاهراً کاملاً اصیل به نظر می‌رسد، آن را برای مخاطبان کاملاً زنده ‏می‌کند. اما معلوم می شود این یانیس- یانیسِ واقعی- نیست.
پیش از آنکه بیایم سراغ شما، فقط می‌خواهم چند تا از تصاویر کوچک این ویدئوها را برای کسانی که در یوتیوب تماشا ‏می‌کنند نشان بدهم، چون تقریباً، اگر موضوع تا این حد جدی نبود، می‌شد گفت تا حدی خنده‌دار است که این بات‌ها چگونه ‏تصاویر کلیک‌خور می‌سازند و مردم را به تماشای آنها ترغیب می‌کنند.‏
جدیدترینِ آن‌ کانال‌هایی که این ها را پخش می کنند، کانالی است به نام «‏Yanis Explained‏». همهٔ تصاویر کوچک که ‏اینجا می‌بینیم، شما را نشان می‌دهند با دست‌هایی روی سر و دهانی که از شدت شوک، کاملاً باز مانده است. در گوشهٔ تصویر ‏هم لوگوی فاکس‌نیوز دیده می‌شود، طوری که انگار شما در شبکهٔ فاکس‌نیوز حضور پیدا کرده‌اید، در حالی که چنین چیزی ‏اصلاً رخ نداده است.
‏«خبر شوکه‌کننده»، «حملهٔ موشکی گسترده»، «آمریکا ژاپن را از دست داد»، «دولت زلنسکی فروپاشید»، «ترامپ منفجر ‏شد»، و از این قبیل. خب، راستش خیلی ابتدایی است، اما ظاهراً جواب می‌دهد.‏
در کانال دیگری یکی از آن کلیپ‌ها را می‌توانیم ببینیم، بسیار شبیه است؛ شاید حتی از همان سازنده باشد. این بار هم دوباره ‏لوگوی فاکس‌نیوز در گوشه‌ها دیده می‌شود. در این کانال شما با کت‌وشلوار ظاهر شده‌اید و کمی رسمی‌تر و شرکتی‌تر به نظر ‏می‌رسید.
‏«توافق جهانی با اسرائیل برخورد می‌کند؛ آمریکا کنار می‌ایستد.»
‏«ونزوئلا حرکتی انجام داد که قدرت آمریکا را درهم شکست.»
‏«وحشت در اسرائیل پس از حملهٔ یمن به تل‌آویو؛ درخواست کمک آمریکا – ۳۵ هزار بازدید.»
‏«سقوط اودسا.»
‏«فروپاشی اوکراین – ۷۹ هزار بازدید.»‏

واقعاً اعداد و ارقام بازدید از بعضی از این کانال‌ها شگفت‌انگیز است. وقتی به همهٔ این نسخه‌های مصنوعی از خودتان نگاه ‏می‌کنید، اینها چه احساسی در شما نسخهٔ واقعیِ یانیس واروفاکیس که خون در بدنش می جوش، ایجاد می کند؟

واروفاکیس: فرِدی، برای من، همه‌چیز حدود یک ماه پیش شروع شد. پیامی دریافت کردم؛ یک پیام واتس‌اپ از سوی یکی ‏از همکاران بسیار محترم، کسی که نظرش برایم اهمیت زیادی دارد. او به‌خاطر یکی از ویدئوهای یوتیوب من به من تبریک ‏می‌گفت و لینکی هم در پیام بود. نوشته بود: «این دقیقاً به‌جا بود؛ یانیس تحلیل بسیار خوبی ارائه کرده‌اید.» آن ویدئویی که تو ‏همین حالا نشان دادی نبود. بنابراین روی لینک کلیک کردم تا یادم بیاید چه گفته بودم که همکارم آن را پسندیده بود. دو دقیقه ‏از ویدئو گذشته بود که فهمیدم خودم نیستم. دو دقیقه، وقتی کسی دارد چیزهایی می‌گوید که هرگز نگفته‌اید اما می‌توانستید گفته ‏باشید، زمانی به اندازهٔ ابدیت است.
دلیل اینکه متوجه شدم این من نیستم این بود که این پیراهن آبی تنم را که می‌بینید؛ در آن ویدئو پوشیده بودم. اما آن ویدئو در ‏دفترم در آتن ضبط شده بود. این‌جا من از خانه‌ام در جزیره با شما صحبت می‌کنم. و این پیراهن هرگز از خانهٔ من در جزیره‌ ‏بیرون نیامده است. همین کنارهم‌گذاریِ پیراهن آبی‌ام از یک خانه به خانهٔ دیگر بود که مرا متوجه کرد این من نیستم.
و بعد، خب، شروع کردم به بررسی موضوع و معلوم شد کلماتی که همین حالا شنیدید را هرگز نگفته‌ام، هرچند کلماتی هستند ‏که می‌توانستم بگویم. تحلیل چندان از تحلیل خودم دور نیست. و ویدئوهایی بوده که از خودم دیده‌ام که در آنها استدلالی را به ‏شیوه‌ای بیان می‌کنم که با آن مخالفتی ندارم؛ شاید همان را می‌گفتم. اما بعد، و این موذیانه‌ترین بخش ماجراست، و مطمئنم تو ‏می‌فهمی و مخاطبان ما هم می‌فهمند، ناگهان جمله‌ای در گفتار من گنجانده می‌شد که هرگز نمی‌گفتم. و از همین‌جا بخش ‏افترا‌آمیز شروع می‌شود. همان‌جا بود که واقعاً از کوره در رفتم و شروع کردم به نامه نوشتن به گوگل و متا و اینستاگرام و ‏غیره.‏

مصاحبه‌کننده: منظورم این است که این یک موردِ منفرد نیست. موارد بسیار زیادی از این دست وجود دارد. به نظر می‌رسد ‏شما یکی از بیشترین افرادی هستید که در یوتیوب دیپ‌فیک شده‌اند. بیایید برای لحظه‌ای حدس بزنیم چرا چنین است.
بدیهی است که شما لهجه، تُن صدا و سبک بیان پرقدرت و هیجان‌انگیز بسیار متمایزی دارید که، به‌ گمانم، اگر یک الگوریتم ‏آن را یاد بگیرد، می‌تواند آن را به‌شکلی جعل کند که برای مردم آشنا به نظر برسد. بله، حدس می‌زنم از قبل هم مخاطبان ‏زیادی در یوتیوب داشته‌اید، پس از نظر اقتصادی جعل شما صرفه دارد، چون درصدی از مردم فریب می‌خورند. و در واقع ‏بعضی از این کانال‌ها دنبال‌کننده‌های بسیار بزرگی دارند؛ ۱۵۰ هزار نفر، چند صد هزار نفر که با آن درگیر می‌شوند و فکر ‏می‌کنند خودِ شما هستید، در حالی که نیستید. یکی دیگر هم بود که ظرف بیش از دوازده ساعت بیش از یک میلیون بازدید ‏داشت.

واروفاکیس: خب، نگرانیِ عمیق من این است که شاید نسخهٔ بدلِ من محبوب‌تر و حتی منسجم‌تر و فصیح‌تر از خودم باشد. اما ‏جدا از شوخی، همان‌طور که می‌توانید تصور کنید، من تعدادی از این کانال‌ها را به‌دقت بررسی کردم و چیزی که مرا ‏شگفت‌زده کرد تنوع محتوا‌ها بود. برخی از آنها آشکارا توسط نیروها و سازمان‌های طرفدار روسیه ایجاد شده بودند. بخش ‏موذیانه و افترا‌آمیز چیزهایی بود که هرگز نمی‌گفتم، مثلاً در حمایت از ولادیمیر پوتین. «آن‌هِرد» می‌داند که من به‌شدت منتقد ‏ناتو و به‌شدت منتقد اتحادیهٔ اروپا هستم، اما در عین حال به همان اندازه ضدِ پوتین هم هستم. پس نیت آنجا کاملاً روشن بود: ‏اینکه مرا به‌عنوان مفسری طرفدار روسیه نشان دهند، هم برای جلب رضایت رژیم روسیه و هم برای بدنام کردن من نزد ‏مخاطبان خودم.
اما بعد کانال‌های دیگری هم هست، فرِدی، که فکر نمی‌کنم نیت بدی داشته باشند. یکی را فقط دیروز دیدم که در واقع یک ‏توضیح سلب‌مسئولیتِ بسیار محترمانه دارد و می‌گوید این یانیس نیست. ما از او اجازه نگرفته‌ایم. ما طرفدار کار او هستیم. ‏اما همان‌طور که از روی صفحه می‌بینید، سعی می‌کنند روشن کنند که این من نیستم. شباهت آن‌قدر نیست که…‏

مصاحبه‌کننده:‏‎ ‎ببخشید یانیس که صحبت شما را قطع می‌کنم، اما فکر می‌کنم در اینجا بیش از حد سخاوتمندانه قضاوت ‏می‌کنید. منظورم این است که من آن کانال را هم دیده‌ام. به نظرم آن توضیح سلب‌مسئولیت اصلاً برجسته نیست؛ جایی در ‏توضیحات کانال آمده است. و کاملاً روشن است که فقط دارند از نام و برند شما بهره‌برداری می‌کنند. این برای من به همان ‏اندازه غیرقابل قبول است.‏

واروفاکیس: شاید. اما این ما را به کل نظامِ درآمدزایی‌ای می‌رساند که شرکت‌های بزرگ فناوری بر جهانی ناآگاه تحمیل ‏کرده‌اند. چون، همان‌طور که می‌توانید تصور کنید، اولین کاری که وقتی با این ویدئوهای جعلی مواجه شدم انجام دادم این بود ‏که به گوگل و متا و این شرکت‌ها نامه نوشتم. چندین روز طول کشید تا پاسخی دریافت کنم. جالب اینکه آن پاسخ هم البته ‏توسط هوش مصنوعی تولید شده بود. بعد اصرار کردم که با یک انسان واقعی صحبت کنم. نمی‌دانم موفق شدم یا نه؛ شاید مرا ‏به نسخه‌ای «واقعی‌تر» از هوش مصنوعی ارجاع دادند که نامه‌ای انسان‌وارتر نوشت.
در نهایت، هشت یا نه روز پس از نخستین فرمی که پر کردم و ارسال کردم، همراه با توضیح و نشان دادن و اثبات اینکه ‏اینها نسخه‌های جعلی من هستند، آنها یک کانال را پایین آوردند. اما سپس ظرف چند ثانیه همان محتوا، در کانالی دیگر با ‏نامی متفاوت اما با همان ویدئوها، دوباره ظاهر شد.
و من ظرف دو هفته به این نتیجه رسیدم که در این بازی جز باخت نصیب من نخواهد شد، چراکه آنها می‌توانند این ویدئوها را ‏به‌ راحتی بازتولید کنند. می‌دانید، آن سرهای نحس بر پیکر سرمایهٔ ابریِ، آن‌طور که من می‌نامم، بسیار سریع‌تر از آنکه من ‏بتوانم آن سرها را قطع کنم، دوباره می‌رویند. بنابراین، در نهایت، تسلیم شدم.‏

مصاحبه‌کننده: خب، من فکر می‌کنم شما نباید تسلیم شوید، چون اگر گوگل الگوریتم‌هایی به‌قدر کافی پیشرفته دارد که ظرف ‏چند ثانیه تشخیص دهد آیا شما در ویدئوهایتان از موسیقی یا محتوای تلویزیونیِ دارای حق نشر استفاده می‌کنید؛ که می‌دانم ‏دارد، چون فوراً آن را شناسایی می‌کنند و آن ویدئوها را پایین می‌آورند، قطعاً می‌تواند تشخیص دهد که آیا کسی در حال ‏بارگذاریِ مجددِ ویدئویی است که قبلاً نامناسب تشخیص داده‌اند، و باید همین کار را هم بکند. صادقانه بگویم، انتظار می‌رود ‏رسیدگی به این موضوع برای اعتبار پلتفرم‌شان در اولویت‌های بالای گوگل باشد، اما برای من جالب است که شرکتی که وقتی ‏پای منافع تجاری‌اش در میان است، یا به نظر من به دلایل دیگر و بیشتر حراستی، مثلاً آنچه در دوران همه‌گیری کووید برای ‏ما اتفاق افتاد، به‌سرعت ویدئوها را حذف می‌کند، در حذف دیپ‌فیک‌ها واقعاً بسیار سهل‌انگارانه عمل می‌کند.‏

واروفاکیس: من فکر نمی‌کنم مسئله، مسئلهٔ تنبلی باشد. فکر می‌کنم مسئله، مسئلهٔ منفعت است. آنها رانت‌های خود را به حداکثر ‏می‌رسانند، چون برای تبلیغاتی که بر اساس این توجهِ به‌دام‌افتادهٔ مخاطبان هدف‌گذاری می‌شود، مبالغ زیادی دریافت می‌کنند، و ‏این مدل کسب‌وکارشان است. این تنبلی نیست.
پس اینجا دو مسئله وجود دارد. یکی اینکه آیا می‌خواهم درگیر یک پروندهٔ قضاییِ دو سه‌ ساله علیه این شرکت‌های بزرگ ‏فناوری شوم یا نه. خب، من الان ۶۵ ساله‌ام. نمی‌دانم چند سال دیگر فرصت فکرکردن، نوشتن و اظهارنظر کردن و کار دارم. ‏برای من مسئلهٔ مدیریت زمان مهم است. این نکتهٔ اول.
نکتهٔ دوم این است که اگر قرار باشد از این افرادی که من آنها را «اربابان تکنوفئودال» می‌نامم التماس کنم تا مالکیت هویت ‏دیداری‌ـ‌شنیداری‌ام را به من برگردانند، هرگز چنین کاری نخواهم کرد. اگر منابع و زمان اضافی داشتم، بد نبودم که آنها را به ‏دادگاه بکشانم، اما ندارم.
و اینجاست که فکر می‌کنم شاید این را جالب بدانید، یا لزوماً با آن موافق نباشید، اما از این وضعیت بسیار نگران‌کننده، در ‏نهایت شاید چیزی پیشرو بیرون بیاید. و آن این است: حد منطقیِ تجربه‌ای که من داشته‌ام چیست؟ حد منطقی این است که دیگر ‏هرگز هیچ ویدئویی را باور نخواهیم کرد. هیچ‌کس باور نخواهد کرد که آنچه اکنون می‌گوییم واقعاً گفت‌وگوی فرِدی و یانیس ‏در یک پادکست «آن‌هِرد» است. حالا آیا این لزوماً چیز بدی است؟
می‌بینید، آتنی‌های باستان یک اصل بسیار مهم را در دل خود داشتند؛ حتی مهم‌تر از اصلی که برای دموکراسی قائل بودند، و ‏آن اصل «ایسِگوریا» بود. جالب اینکه من این مفهوم یونان باستان، یعنی «ایسگوریا»، را در چت‌بات‌های هوش مصنوعی، ‏مثل جی‌پی‌تی و آنتروپیک و غیره، وارد کردم تا ببینم چگونه آن را تعریف می‌کنند، و آنها اشتباه می‌کنند. آن را به‌عنوان ‏آزادی بیان، حق شنیده شدن در مجمع و از این قبیل تعریف می‌کنند. اما منظور آتنی‌های باستان این نبود. منظور آتنی‌های ‏باستان از ایسگوریا این بود که هر یک از ما حق دارد بر اساس دیدگاه‌هایش و بر پایهٔ محتوای خودش داوری شود – ‏صرف‌نظر از این‌که چه کسی هستیم و چه کسی این سخنان را بر زبان آورده، و حتی مستقل از فصاحت و شیوایی و ‏آرایه‌های بیانِ پرقدرت و هیجان‌انگیز. حال اگر ما به این حد برسیم، یا در مقطعی به آن برسیم، که هیچ‌کس باور نکند کسی ‏واقعاً چیزی را گفته که ادعا می‌شود گفته است، شاید آنگاه هنرِ مدت‌ها ازدست‌رفتهٔ داوریِ آنچه می‌شنویم بر اساس استحکامِ ‏استدلال، نه بر اساس میزانِ علاقه یا بی‌علاقگی‌‌مان به گوینده، و نه بر اساس اینکه آن شخص تا چه حد فصیح سخن گفته، ‏دوباره در ما شکل بگیرد.‏

مصاحبه‌کننده: فکر می‌کنم این جمع‌بندیِ بسیار خوبی است، رویکردی خلاقانه و مثبت برای اندیشیدن به موضوع. اما احتمالاً ‏لازم است بتوانیم به افراد مشخصی اعتماد کنیم. این برای روابط انسانیِ ما امری بنیادی است. زندگی بیش از حد فرساینده ‏می‌شود اگر مجبور باشیم تک‌تک جملات را از نقطهٔ صفر داوری کنیم. می‌دانید، مردم می‌گویند «من یانیس را دوست دارم، ‏به او اعتماد دارم، پس به حرف‌هایش گوش می‌دهم». اگر این را از دست بدهیم، موضوع بسیار جدی است. اجازه بدهید، با ‏وجود اینکه در فضای مثبت آغاز سال نو هستیم، کمی نقش بدبین را بازی کنم. پیامدِ بدِ همهٔ این ماجرا، به‌جای شکل‌گیریِ ‏مخاطبی زیبا، پیچیده و شکاک که همه‌چیز را از اصول نخستین می‌سنجد، می‌تواند این باشد که به وضعیتی شبیه دوران قرون ‏وسطی یا حتی پیش از آن بازگردیم؛ جایی که اکثریتِ جمعیت در دریایی از باورها و محتواهای کاملاً نادرست غوطه‌ورند، ‏چون به اطلاعات باکیفیت دسترسی ندارند و نمی‌دانند چه چیزی درست است و چه چیزی نیست و به چه باید باور داشت. همهٔ ‏اینها هم با شتابی چندبرابر، به‌واسطهٔ پلتفرم‌هایی مثل یوتیوب و این بات‌های هوش مصنوعی و امثال آن رخ می‌دهد.
و به جهانی بازمی‌گردیم که دسترسی به اطلاعات خوب یک کالای لوکس است و فقط کسانی که توان پرداخت دارند، با خرید ‏اشتراک رسانه‌های معتبر یا هر چیز مشابه، تصوری از آنچه واقعاً در جهان می‌گذرد خواهند داشت، و اغلب مردم به انواع و ‏اقسام یاوه‌ها باور خواهند داشت. آیا این پیامد محتمل‌تر نیست؟

واروفاکیس: البته که هست. اما می‌دانید، پایان سال است و آغاز سال نو. تصمیم گرفتم به پدیده‌ای که شب‌های بی‌خوابیِ زیادی ‏برایم به همراه داشته، نگاهی مثبت بکنم. دلیل اینکه استدلال من دربارهٔ «ایسگوریا» در نهایت، آن‌طور که شما می‌گویید، از ‏هم می‌پاشد این است که ما در یک میدان برابر قرار نداریم. این‌طور نیست که اینترنتی وجود داشته باشد و همهٔ ما با یک ‏ناتوانیِ یکسان در اثبات اینکه کی هستیم و چه گفته‌ایم و چه نگفته‌ایم مواجه باشیم. توده‌ها آشکارا در چنین وضعیتی قرار ‏دارند؛ من خودم آن را تجربه کرده‌ام و حالا چند ماهی است که هر روز آن را تجربه می‌کنم. در حالی که افرادی مثل ایلان ‏ماسک، جف بزوس، و کسانی که الگوریتم‌ها را بهینه می‌کنند و کنترل می‌کنند چه چیزی نمایش داده شود و چه چیزی نه، ‏هویتی بسیار تثبیت‌شده دارند. آنها می‌توانند دیدگاه‌های خود را منتشر کنند بی‌آنکه هیچ امکانی وجود داشته باشد که عمداً و ‏به‌طور راهبردی با دیگران اشتباه گرفته شوند.
فرِدی، به همین دلیل است که تو با من مصاحبه کردی؛ بابتش متشکرم. چند سال پیش کتابی نوشتم با عنوان «تکنوفئودالیسم». ‏مایلم بحث را یک گام جلوتر ببرم: ما در یک عصر تکنیکی زندگی می‌کنیم. این چیزی است که من طی چندین سال به‌عنوان ‏یک فرضیه، به‌عنوان یک گزاره، مطرح کرده‌ام.‏
این نقطهٔ اوج است. یعنی همین نشان می‌دهد که حتی ما کاربران جدید ابری، که حتی کنترل، مالکیت یا حقوق قانونی بر هویت ‏دیداری‌ـ‌شنیداری خود نداریم، هیچ کنترلی بر امور خود نداریم. این همان تکنوفئودالیسم است که از حد خارج شده. چت‌بات‌ها، ‏هوش مصنوعی که در این پلتفرم‌ها ادغام شده، می‌توانند به‌طور کامل هر امکان گفت‌وگو و بحث را خراب کنند. و آیا این ‏تأییدی نیست بر اینکه ایدئولوگ‌های هر دو سوی افراط، راست افراطی و چپ افراطی، که از نظر من واقعاً چپ نیستند، در ‏اعتراض به نقض آزادی بیان خودشان بسیار خوب عمل می‌کنند، اما هیچ علاقه‌ای به آزادی بیان ندارند. آنها صرفاً می‌خواهند ‏دیگران را از پلتفرم حذف کنند و این موضوع باید در صدر فهرست اولویت‌های ما برای مبارزه قرار گیرد.‏

مصاحبه‌کننده: اجازه بده یک سؤال فلسفی دیگر بپرسم. آیا این موضوع دوباره شما را به فکر اصول دموکراسی نمی‌اندازد؟ ‏خوب، به نظر می‌رسد که بسیاری توسط این چیزها فریب خورده‌اند و چقدر آسان به نظر می‌رسد که محتوای جعلی و ضعیف ‏این‌چنینی منتشر شود؟ واقعیت این است که ۸۰۰ هزار نفر ویدئویی را تماشا کردند که به‌وضوح ساختهٔ هوش مصنوعی بود و ‏ظاهراً باورش کردند و در بخش نظرات درباره‌اش بحث کردند. آیا این کمی افسرده‌کننده نیست؟ چقدر مردم به‌راحتی فریب ‏می‌خورند. خودتان گفتید که تقریباً توسط ویدئوی خودتان فریب خوردید، پس این به معنای کوچک شمردن دیگران نیست. فقط ‏این است که ما به‌عنوان یک گونه، توانایی محدودی در جدا کردن محتوای واقعی از جعلی داریم.‏

واروفاکیس: بله، از یک طرف خیلی افسرده‌کننده است. اما از طرف دیگر، من یکی از آن افرادی نیستم که عینک خوش‌بینانه ‏بزنند و باور کنند که ما در چهار یا پنج دههٔ گذشته در چیزی به نام دموکراسی زندگی کرده‌ایم. دموکراسی ایدهٔ بزرگی برای ‏آرزو کردن است، اما ما هرگز واقعاً دموکراسی نداشته‌ایم. جوامع غربی ما همیشه اولیگارشی بوده‌اند، با انتخابات دوره‌ای، و ‏شنیدن نظر عمومی همیشه بخشی از این جوامع اولیگارشی بوده است.
کل مفهوم دموکراسی، که شروع آن را نه در آتن، اما دست‌کم در سنت غربی می‌توان از مگنا کارتا۲‏ جست‌وجو کرد، که بعدتر ‏در قانون اساسی آمریکا بازتاب یافت. همهٔ اینها تلاشی بوده برای ایجاد قراردادهای اجتماعی که رابطهٔ پادشاه با اربابانش را ‏تنظیم می کرد – در ایالات متحده هم به همین شکل است. اگر مقالات فدرالیست‌ها را بخوانید، همه‌اش دربارهٔ این است که ‏چگونه از طریق انواع سازوکارهای «کنترل و موازنه»- که قرار است مانع شوند- دِموس را از دموکراسی دور نگه دارند تا ‏اساساً هرگز دموکراسی تحقق پیدا نکند. اما دقیقاً به همین دلیل است که من چنین تعهد عاطفی و ایدئولوژیکی عمیقی به ایدهٔ ‏‏«ایسگوریا» دارم، زیرا برای من این مهم‌ترین اصل است برای پاسداشت این ایده که باید واقعاً به استحکام استدلال‌های ‏دیگران اهمیت بدهیم. اگر بتوانیم راه‌هایی را تصور کنیم برای تضعیف قدرت کلان‌فناوری، به‌نحوی که ما را به ارزیابی ‏استدلال‌ها بر اساس قوت‌ها و ضعف‌هایشان نزدیک‌تر کند، نه اینکه کاملاً اسیر نظام ستاره‌محور باشیم؛ اینکه «فرِدی این را ‏می‌گوید»، «یانیس آن را می‌گوید» یا مثلاً «تیلور سوئیفت» گفته است. مسئله این است که استحکام واقعیِ ادعاهایی که مردم ‏مطرح می‌کنند چیست؟ اگر بتوانیم به آن نقطه برسیم، بسیار به بازگرداندن «دِموس» در چارچوب نوعی رؤیای دموکراتیک ‏نزدیک‌تر خواهیم شد.‏

مصاحبه‌کننده: فکر می‌کنید هیچ‌کدام از اینها ممکن است؟ من به‌دنبال یک نکتهٔ امیدوارکننده برای جمع‌بندی هستم، اما مطمئن ‏نیستم به کجا برسد. اگر بخواهیم این‌طور بگوییم: اگر بخواهیم مقاومتی علیه اربابان تکنوفئودال بکنیم، از کجا باید شروع ‏کنیم؟ آیا شما از آن دسته افرادی هستید که فکر می‌کنند باید تا حدی آفلاین شویم و به کتاب‌ها بازگردیم؟ از کجا شروع کنیم؟

واروفاکیس: خب، ببینید، بسیار آسان است که دلسرد و بدبین شد. می‌دانید، تمام شواهد تجربی به نتایج بد در چند سال آینده ‏اشاره می‌کند. اما من یک انتخاب سیاسی و اخلاقی کرده‌ام که دلسرد و بدبین نباشم. همان‌طور که در گذشته‌ای نه‌چندان دور، ‏‏«حق الهی پادشاهان» امری بدیهی تلقی می‌شد، امروز «حق الهی کلان‌فناوری» برای دستکاری ذهن‌های ما و کنترل ‏بحث‌های ما بدیهی انگاشته می‌شود. ما حق الهی پادشاهان را تغییر دادیم؛ این را هم می‌توانیم تغییر دهیم.‏
و می‌دانید، بعضی‌ها از من می‌پرسند چطور می‌شود که در بعضی لحظات این‌قدر معقول حرف می‌زنید و بعد خودتان را ‏چپ‌گرا و مارکسیست می‌نامید. خب، فرِدی، دلیلش این است که من در نهایت به تنظیمگری باور ندارم. به این باور ندارم که ‏دولت بیاید و همه‌چیز را تنظیم کند. من به حقوق مالکیت باور دارم. برای من آنچه واقعاً اهمیت دارد این است که چه کسی ‏مالکِ چه چیزی است. حتی برایم مهم نیست الگوریتم‌ها دربارهٔ من چه می‌دانند. می‌دانید واقعاً چه چیزی برایم مهم است؟ اینکه ‏مالکِ این چیزهای لعنتی چه کسی است؟ چه کسی مسئول بهینه‌سازی آنها برای اهداف مشخص است.‏
برای مثال، می‌دانیم که فیسبوک از دامن زدن به خشم و نفرت میان کاربرانش پول زیادی به دست آورده، چون این همان ‏چیزی است که باعث می‌شود این پلتفرم چشم‌های بیشتری را به صفحه خیره کند و بعد تبلیغات را هدف‌گذاری کند و غیره. ‏این‌طور نیست که الگوریتم «بخواهد» مردم خشمگین باشند. الگوریتم توسط افرادی خاص برنامه‌ریزی شده که توسط مالکان ‏پلتفرم به کار گرفته شده‌اند تا با توجه به حقوق مالکیتی که دارند، به شیوه‌ای مشخص پول درآورند.‏
من به «مالکیت مشاع دیجیتال» باور دارم. می‌دانید، من هنوز به ‌اندازه‌ای سن دارم- برخلاف شما- که اینترنت را زمانی که ‏در یک مالکیت مشاع بود، به یاد بیاورم. ما برنامه می‌نوشتیم و آنها را در اینترنت با هم به اشتراک می‌گذاشتیم و این واقعاً ‏بستری برای گفت‌وگو و خلاقیت بود. و می‌دانید، امروز هر کسی که یک صفحهٔ وب را دانلود می‌کند یا می‌خواند، در بالای ‏صفحه آن نشانی را می‌بیند.
بله، این یک برنامه است. کسی این برنامه را در دههٔ ۱۹۷۰ نوشت و حتی یک پنی هم بابتش نگرفت. این بخشی از همان ‏مبادلهٔ هدیه‌محور بود؛ جامعه‌ای از افراد خلاق که گرد هم می‌آمدند تا با هم کاری انجام دهند. حالا، من حتی مخالف این نیستم ‏که مردم از آن پول دربیاورند، اما به‌عنوان یک فعالیت و بنگاه تعاونی. در حالی که با خصوصی‌سازی آنچه من «سرمایهٔ ‏ابری» می‌نامم و با تسلیح این سرمایهٔ ابری برای سلب حقوق مالکیت خود ما، حتی بر هویت دیداری-شنیداری‌مان، این برای ‏من «تکنوفئودالیسم» است. این همان چیزی است که باید با آن مبارزه کرد، همان‌طور که در دورانی قبل تر یعنی فئودالیسم با ‏آن مبارزه شد.

مصاحبه‌کننده: یانیس، یانیس واروفاکیسِ واقعی، به شما اطمینان می‌دهم که ممکن است در روزهای آینده نسخه‌ای از این ‏ماجرا را ببینیم که اندکی متفاوت باشد. اما در این میان، از وقتی که امروز در اختیار ما گذاشتید سپاسگزارم و سال نو ‏مبارک.‏

واروفاکیس: سال نو شما هم مبارک. ممنونم، فرِدی.‏
این گفت‌وگوی واقعی و اصیل با یانیس واروفاکیس بود که با «آن‌هِرد» دربارهٔ تجربهٔ یکی از بیشترین افراد جعل‌شده با ‏فناوری دیپ‌فیک در یوتیوب صحبت می‌کرد. او همه‌جا هست، اما فقط یکی از هر پنج نسخهٔ او واقعاً واقعی است. ما امروز ‏نسخهٔ واقعی را داشتیم. آینده‌ای که ظاهراً همین حالا در آن قرار داریم، دست‌کم نگران‌کننده است. به نظر من، یانیس به‌طور ‏معمول مثبت‌اندیش و فلسفی با تجربه‌ای مواجه شد که حتماً باید بسیار آزاردهنده باشد. اما برای همهٔ ما، در آستانهٔ ورود به ‏سال ۲۰۲۶، واقعاً لازم است سطح هوشیاری خود را بالا ببریم و نسبت به اطلاعاتی که به آن اعتماد می‌کنیم بسیار شکاک‌تر ‏باشیم.‏

————————————————

۱. ویدئوی جعلی (‏Deepfake‏)، ترکیب فیلم‌های موجود و منبع توسط هوش مصنوعی که فرد یا افرادی را در حال انجام کاری در موقعیتی نشان می‌دهد که هرگز در واقعیت رخ نداده است.‏
۲. مگنا کارتا (‏Magna Carta‏) یک سند تاریخی بسیار مهم است که در سال ۱۲۱۵ میلادی در انگلستان امضا شد. نام آن ‏از لاتین گرفته شده و به معنای «عهدنامهٔ بزرگ» است.‏

————————————————

منبع: اندیشه نو

 

 

دسته : بین المللی, جهان, سياسي

برچسب :

مقالات هیات تحریریه راهکار سوسیالیستی































آرشیو کلیپ و ویدئو راهکار سوسیالیستی

html> Ny sida 1