ژانویه 8, 2026
یانیس واروفاکیسهای جعلی در یوتیوب – گفتوگویی با یانیس واروفاکیس در برنامهٔ آنهِرد (Unherd)
دو دقیقه از تماشای ویدئو گذشته بود که فهمیدم خودم نیستم. دو دقیقه، وقتی کسی دارد چیزهایی میگوید که هرگز نگفتهاید، اما میتوانستید گفته باشید، یک ابدیت است. یک کانال را پایین آوردند و سپس ظرف چند ثانیه همان محتوا با همان ویدئوها، اما با نامی دیگر، در کانالی متفاوت دوباره ظاهر شد. فهمیدم که ما- «رعیتهای ابری»- حتی بر هویت دیداریـشنیداری خودمان هم نه کنترل داریم، نه مالکیت، و نه حقوق مالکانه. این همان تکنوفئودالیسم است که از کنترل خارج شده است.

یانیس واروفاکیسهای جعلی در یوتیوب
گفتوگویی با یانیس واروفاکیس در برنامهٔ آنهِرد (Unherd)
ترجمهٔ مینا آگاه – اندیشهٔ نو
چهارشنبه ۱۷ دی ۱۴۰۴
دو دقیقه از تماشای ویدئو گذشته بود که فهمیدم خودم نیستم. دو دقیقه، وقتی کسی دارد چیزهایی میگوید که هرگز نگفتهاید، اما میتوانستید گفته باشید، یک ابدیت است. یک کانال را پایین آوردند و سپس ظرف چند ثانیه همان محتوا با همان ویدئوها، اما با نامی دیگر، در کانالی متفاوت دوباره ظاهر شد. فهمیدم که ما- «رعیتهای ابری»- حتی بر هویت دیداریـشنیداری خودمان هم نه کنترل داریم، نه مالکیت، و نه حقوق مالکانه. این همان تکنوفئودالیسم است که از کنترل خارج شده است.
مصاحبه کننده: سلام و به برنامهٔ «آنهِرد» (Unherd) خوش آمدید. کریسمس و سال نو مبارک. پرسش امروز این است: از کجا میدانید که من واقعاً فرِدی سایرزِ (Freddie Sayers) مُجری برنامهٔ «آنهِرد» هستم و نه یک شخصیت جعلی (دیپفِیک)۱ ساختهشده توسط هوش مصنوعی که با لهجهٔ کاملاً بریتانیاییام از یک استودیوی خیالی برای شما پخش میشود؟ خب، شاید ندانید. و دلیلش این است که یک فرد مشخص، کسی که او را بهخوبی میشناسیم، بیش از اغلب افراد هدف دیپفیک قرار گرفته است. ویدئوهایی از او در سراسر اینترنت ظاهر شده که ظاهراً دربارهٔ اوضاع جهان سخن میگوید و صدها هزار بازدید میگیرد، اما در واقع اصلاً خودِ او نیست. منظورم یانیس واروفاکیس است، کسی که علاوه بر اینکه وزیر دارایی پیشین یونان است، یکی از شناختهشدهترین مفسران امور جاری و اقتصاد هم است. با افتخار باید بگویم هممُجری پادکست اختصاصی ما «اکونوکلاستز» (Econoclasts) نیز هست.
یانیس از طریق ارتباط تلفنی از یونان به ما میپیوندد تا دربارهٔ این اتفاق عجیب که برایش رخ داده و اینکه واقعاً ممکن است خیلی زود برای همهٔ ما رخ دهد صحبت کند. یانیس، دوباره به «آنهِرد» خوش آمدی.
واروفاکیس: خب، ممنونم فرِدی. سال نو را به همه تبریک میگویم.
مصاحبهکننده: پس یانیس، فکر میکنم باید از اینجا شروع کنیم که نگاهی به چند تا از این ویدئوها بیندازیم. من تمام تلاشم را میکنم تا اگر کسی این برنامه را بهصورت پادکست گوش میدهد، بفهمد این ویدئوها شبیه چه چیزی هستند. واقعاً تا حدی گیجکنندهاند. کلیپ اول را پخش کنیم، بیایید نگاهی بیندازیم.
«رئیسجمهور ایالات متحده، پس از اعزام یک ناو هواپیمابر، کشتن ۹۵ نفر، توقیف نفتکشها و اعلام محاصره، با رهبری که میکوشید سرنگون کند، تماس گرفت و با پاسخ منفی مواجه شد. آن تماس تلفنی همان لحظهای بود که آمریکا جنگ نفت را باخت. اما نکتهای هست که هیچکس درک نمیکند: آمریکا با ونزوئلا نمیجنگید. آمریکا با چین میجنگید. و چین پیشاپیش پیروز شده بود. بگذارید نشانتان بدهم چگونه. من یانیس واروفاکیس، وزیر دارایی پیشین هستم.»
پس اینکه می گوید: «من یانیس واروفاکیس، وزیر دارایی پیشین هستم» ظاهراً درست نیست. شما واروفاکیس نیستید، یک ربات هوش مصنوعی هستید. اما فقط با نگاه کردن به برخی از نظرها زیر آن ویدئو، اگر بینندهٔ تصویری باشید میتوانم بعضی از آنها را روی صفحه نشان بدهم، میبینید که صدها نظر از مردم واقعاً با محتوا درگیر شده و نظر دادهاند.
«مادورو از قذافی خوب درس گرفت.»
«ناوهای جنگی چین، موشکهای روسیه.»
«دانشمندان هشدار داده بودند که اسلحهسازی از دلار اقدامی انتحاری است.»
«خیلی خوشحالم که در این کانال عضو شدم.»
«۷۱ سالهام و هرگز فکر نمیکردم زنده باشم و افول هژمونی آمریکا را ببینم»، و الی آخر.
بنابراین مردم هیچ تصوری ندارند که این واقعی نیست. بیایید یکی دیگر را هم ببینیم.
«آنچه دارد رخ میدهد، یک درگیری میدانیِ جدا افتاده از (روند موجود) نیست. این نتیجهٔ عینیِ یک توهم ژئوپلیتیکیِ گستردهتر است که از پایان جنگ سرد، آمریکا را آزار داده است.»
یانیس در آن کلیپ کمی شبیه «سریال پیشتازان فضا» به نظر میرسد، اما با همان بیان پرقدرت و هیجانانگیز و همان قالب «دست از کار بکش و گوش بده» که به آن عادت کردهایم و دوستش داریم. و باید گفت این را هم بهخوبی بازتولید میکند. بیایید یکی دیگر را پخش کنیم.
«میخواهم با پرسشی شروع کنم که تقریباً هیچکس در واشنگتن آن را با صدای بلند مطرح نمیکند: اگر اسرائیل دیگر منبع ثبات منطقهای نباشد، بلکه کانونِ شوکِ سیستماتیکِ بعدی باشد، چه؟»
این جمله با لحنی بسیار تأثیرگذار و متقاعدکننده بیان شده و طوری القا میکند که گویی یک رویداد مهم در آستانهٔ وقوع است و همین حالا در جریان است. و یانیس، با بلاغتی که ظاهراً کاملاً اصیل به نظر میرسد، آن را برای مخاطبان کاملاً زنده میکند. اما معلوم می شود این یانیس- یانیسِ واقعی- نیست.
پیش از آنکه بیایم سراغ شما، فقط میخواهم چند تا از تصاویر کوچک این ویدئوها را برای کسانی که در یوتیوب تماشا میکنند نشان بدهم، چون تقریباً، اگر موضوع تا این حد جدی نبود، میشد گفت تا حدی خندهدار است که این باتها چگونه تصاویر کلیکخور میسازند و مردم را به تماشای آنها ترغیب میکنند.
جدیدترینِ آن کانالهایی که این ها را پخش می کنند، کانالی است به نام «Yanis Explained». همهٔ تصاویر کوچک که اینجا میبینیم، شما را نشان میدهند با دستهایی روی سر و دهانی که از شدت شوک، کاملاً باز مانده است. در گوشهٔ تصویر هم لوگوی فاکسنیوز دیده میشود، طوری که انگار شما در شبکهٔ فاکسنیوز حضور پیدا کردهاید، در حالی که چنین چیزی اصلاً رخ نداده است.
«خبر شوکهکننده»، «حملهٔ موشکی گسترده»، «آمریکا ژاپن را از دست داد»، «دولت زلنسکی فروپاشید»، «ترامپ منفجر شد»، و از این قبیل. خب، راستش خیلی ابتدایی است، اما ظاهراً جواب میدهد.
در کانال دیگری یکی از آن کلیپها را میتوانیم ببینیم، بسیار شبیه است؛ شاید حتی از همان سازنده باشد. این بار هم دوباره لوگوی فاکسنیوز در گوشهها دیده میشود. در این کانال شما با کتوشلوار ظاهر شدهاید و کمی رسمیتر و شرکتیتر به نظر میرسید.
«توافق جهانی با اسرائیل برخورد میکند؛ آمریکا کنار میایستد.»
«ونزوئلا حرکتی انجام داد که قدرت آمریکا را درهم شکست.»
«وحشت در اسرائیل پس از حملهٔ یمن به تلآویو؛ درخواست کمک آمریکا – ۳۵ هزار بازدید.»
«سقوط اودسا.»
«فروپاشی اوکراین – ۷۹ هزار بازدید.»
واقعاً اعداد و ارقام بازدید از بعضی از این کانالها شگفتانگیز است. وقتی به همهٔ این نسخههای مصنوعی از خودتان نگاه میکنید، اینها چه احساسی در شما نسخهٔ واقعیِ یانیس واروفاکیس که خون در بدنش می جوش، ایجاد می کند؟
واروفاکیس: فرِدی، برای من، همهچیز حدود یک ماه پیش شروع شد. پیامی دریافت کردم؛ یک پیام واتساپ از سوی یکی از همکاران بسیار محترم، کسی که نظرش برایم اهمیت زیادی دارد. او بهخاطر یکی از ویدئوهای یوتیوب من به من تبریک میگفت و لینکی هم در پیام بود. نوشته بود: «این دقیقاً بهجا بود؛ یانیس تحلیل بسیار خوبی ارائه کردهاید.» آن ویدئویی که تو همین حالا نشان دادی نبود. بنابراین روی لینک کلیک کردم تا یادم بیاید چه گفته بودم که همکارم آن را پسندیده بود. دو دقیقه از ویدئو گذشته بود که فهمیدم خودم نیستم. دو دقیقه، وقتی کسی دارد چیزهایی میگوید که هرگز نگفتهاید اما میتوانستید گفته باشید، زمانی به اندازهٔ ابدیت است.
دلیل اینکه متوجه شدم این من نیستم این بود که این پیراهن آبی تنم را که میبینید؛ در آن ویدئو پوشیده بودم. اما آن ویدئو در دفترم در آتن ضبط شده بود. اینجا من از خانهام در جزیره با شما صحبت میکنم. و این پیراهن هرگز از خانهٔ من در جزیره بیرون نیامده است. همین کنارهمگذاریِ پیراهن آبیام از یک خانه به خانهٔ دیگر بود که مرا متوجه کرد این من نیستم.
و بعد، خب، شروع کردم به بررسی موضوع و معلوم شد کلماتی که همین حالا شنیدید را هرگز نگفتهام، هرچند کلماتی هستند که میتوانستم بگویم. تحلیل چندان از تحلیل خودم دور نیست. و ویدئوهایی بوده که از خودم دیدهام که در آنها استدلالی را به شیوهای بیان میکنم که با آن مخالفتی ندارم؛ شاید همان را میگفتم. اما بعد، و این موذیانهترین بخش ماجراست، و مطمئنم تو میفهمی و مخاطبان ما هم میفهمند، ناگهان جملهای در گفتار من گنجانده میشد که هرگز نمیگفتم. و از همینجا بخش افتراآمیز شروع میشود. همانجا بود که واقعاً از کوره در رفتم و شروع کردم به نامه نوشتن به گوگل و متا و اینستاگرام و غیره.
مصاحبهکننده: منظورم این است که این یک موردِ منفرد نیست. موارد بسیار زیادی از این دست وجود دارد. به نظر میرسد شما یکی از بیشترین افرادی هستید که در یوتیوب دیپفیک شدهاند. بیایید برای لحظهای حدس بزنیم چرا چنین است.
بدیهی است که شما لهجه، تُن صدا و سبک بیان پرقدرت و هیجانانگیز بسیار متمایزی دارید که، به گمانم، اگر یک الگوریتم آن را یاد بگیرد، میتواند آن را بهشکلی جعل کند که برای مردم آشنا به نظر برسد. بله، حدس میزنم از قبل هم مخاطبان زیادی در یوتیوب داشتهاید، پس از نظر اقتصادی جعل شما صرفه دارد، چون درصدی از مردم فریب میخورند. و در واقع بعضی از این کانالها دنبالکنندههای بسیار بزرگی دارند؛ ۱۵۰ هزار نفر، چند صد هزار نفر که با آن درگیر میشوند و فکر میکنند خودِ شما هستید، در حالی که نیستید. یکی دیگر هم بود که ظرف بیش از دوازده ساعت بیش از یک میلیون بازدید داشت.
واروفاکیس: خب، نگرانیِ عمیق من این است که شاید نسخهٔ بدلِ من محبوبتر و حتی منسجمتر و فصیحتر از خودم باشد. اما جدا از شوخی، همانطور که میتوانید تصور کنید، من تعدادی از این کانالها را بهدقت بررسی کردم و چیزی که مرا شگفتزده کرد تنوع محتواها بود. برخی از آنها آشکارا توسط نیروها و سازمانهای طرفدار روسیه ایجاد شده بودند. بخش موذیانه و افتراآمیز چیزهایی بود که هرگز نمیگفتم، مثلاً در حمایت از ولادیمیر پوتین. «آنهِرد» میداند که من بهشدت منتقد ناتو و بهشدت منتقد اتحادیهٔ اروپا هستم، اما در عین حال به همان اندازه ضدِ پوتین هم هستم. پس نیت آنجا کاملاً روشن بود: اینکه مرا بهعنوان مفسری طرفدار روسیه نشان دهند، هم برای جلب رضایت رژیم روسیه و هم برای بدنام کردن من نزد مخاطبان خودم.
اما بعد کانالهای دیگری هم هست، فرِدی، که فکر نمیکنم نیت بدی داشته باشند. یکی را فقط دیروز دیدم که در واقع یک توضیح سلبمسئولیتِ بسیار محترمانه دارد و میگوید این یانیس نیست. ما از او اجازه نگرفتهایم. ما طرفدار کار او هستیم. اما همانطور که از روی صفحه میبینید، سعی میکنند روشن کنند که این من نیستم. شباهت آنقدر نیست که…
مصاحبهکننده: ببخشید یانیس که صحبت شما را قطع میکنم، اما فکر میکنم در اینجا بیش از حد سخاوتمندانه قضاوت میکنید. منظورم این است که من آن کانال را هم دیدهام. به نظرم آن توضیح سلبمسئولیت اصلاً برجسته نیست؛ جایی در توضیحات کانال آمده است. و کاملاً روشن است که فقط دارند از نام و برند شما بهرهبرداری میکنند. این برای من به همان اندازه غیرقابل قبول است.
واروفاکیس: شاید. اما این ما را به کل نظامِ درآمدزاییای میرساند که شرکتهای بزرگ فناوری بر جهانی ناآگاه تحمیل کردهاند. چون، همانطور که میتوانید تصور کنید، اولین کاری که وقتی با این ویدئوهای جعلی مواجه شدم انجام دادم این بود که به گوگل و متا و این شرکتها نامه نوشتم. چندین روز طول کشید تا پاسخی دریافت کنم. جالب اینکه آن پاسخ هم البته توسط هوش مصنوعی تولید شده بود. بعد اصرار کردم که با یک انسان واقعی صحبت کنم. نمیدانم موفق شدم یا نه؛ شاید مرا به نسخهای «واقعیتر» از هوش مصنوعی ارجاع دادند که نامهای انسانوارتر نوشت.
در نهایت، هشت یا نه روز پس از نخستین فرمی که پر کردم و ارسال کردم، همراه با توضیح و نشان دادن و اثبات اینکه اینها نسخههای جعلی من هستند، آنها یک کانال را پایین آوردند. اما سپس ظرف چند ثانیه همان محتوا، در کانالی دیگر با نامی متفاوت اما با همان ویدئوها، دوباره ظاهر شد.
و من ظرف دو هفته به این نتیجه رسیدم که در این بازی جز باخت نصیب من نخواهد شد، چراکه آنها میتوانند این ویدئوها را به راحتی بازتولید کنند. میدانید، آن سرهای نحس بر پیکر سرمایهٔ ابریِ، آنطور که من مینامم، بسیار سریعتر از آنکه من بتوانم آن سرها را قطع کنم، دوباره میرویند. بنابراین، در نهایت، تسلیم شدم.
مصاحبهکننده: خب، من فکر میکنم شما نباید تسلیم شوید، چون اگر گوگل الگوریتمهایی بهقدر کافی پیشرفته دارد که ظرف چند ثانیه تشخیص دهد آیا شما در ویدئوهایتان از موسیقی یا محتوای تلویزیونیِ دارای حق نشر استفاده میکنید؛ که میدانم دارد، چون فوراً آن را شناسایی میکنند و آن ویدئوها را پایین میآورند، قطعاً میتواند تشخیص دهد که آیا کسی در حال بارگذاریِ مجددِ ویدئویی است که قبلاً نامناسب تشخیص دادهاند، و باید همین کار را هم بکند. صادقانه بگویم، انتظار میرود رسیدگی به این موضوع برای اعتبار پلتفرمشان در اولویتهای بالای گوگل باشد، اما برای من جالب است که شرکتی که وقتی پای منافع تجاریاش در میان است، یا به نظر من به دلایل دیگر و بیشتر حراستی، مثلاً آنچه در دوران همهگیری کووید برای ما اتفاق افتاد، بهسرعت ویدئوها را حذف میکند، در حذف دیپفیکها واقعاً بسیار سهلانگارانه عمل میکند.
واروفاکیس: من فکر نمیکنم مسئله، مسئلهٔ تنبلی باشد. فکر میکنم مسئله، مسئلهٔ منفعت است. آنها رانتهای خود را به حداکثر میرسانند، چون برای تبلیغاتی که بر اساس این توجهِ بهدامافتادهٔ مخاطبان هدفگذاری میشود، مبالغ زیادی دریافت میکنند، و این مدل کسبوکارشان است. این تنبلی نیست.
پس اینجا دو مسئله وجود دارد. یکی اینکه آیا میخواهم درگیر یک پروندهٔ قضاییِ دو سه ساله علیه این شرکتهای بزرگ فناوری شوم یا نه. خب، من الان ۶۵ سالهام. نمیدانم چند سال دیگر فرصت فکرکردن، نوشتن و اظهارنظر کردن و کار دارم. برای من مسئلهٔ مدیریت زمان مهم است. این نکتهٔ اول.
نکتهٔ دوم این است که اگر قرار باشد از این افرادی که من آنها را «اربابان تکنوفئودال» مینامم التماس کنم تا مالکیت هویت دیداریـشنیداریام را به من برگردانند، هرگز چنین کاری نخواهم کرد. اگر منابع و زمان اضافی داشتم، بد نبودم که آنها را به دادگاه بکشانم، اما ندارم.
و اینجاست که فکر میکنم شاید این را جالب بدانید، یا لزوماً با آن موافق نباشید، اما از این وضعیت بسیار نگرانکننده، در نهایت شاید چیزی پیشرو بیرون بیاید. و آن این است: حد منطقیِ تجربهای که من داشتهام چیست؟ حد منطقی این است که دیگر هرگز هیچ ویدئویی را باور نخواهیم کرد. هیچکس باور نخواهد کرد که آنچه اکنون میگوییم واقعاً گفتوگوی فرِدی و یانیس در یک پادکست «آنهِرد» است. حالا آیا این لزوماً چیز بدی است؟
میبینید، آتنیهای باستان یک اصل بسیار مهم را در دل خود داشتند؛ حتی مهمتر از اصلی که برای دموکراسی قائل بودند، و آن اصل «ایسِگوریا» بود. جالب اینکه من این مفهوم یونان باستان، یعنی «ایسگوریا»، را در چتباتهای هوش مصنوعی، مثل جیپیتی و آنتروپیک و غیره، وارد کردم تا ببینم چگونه آن را تعریف میکنند، و آنها اشتباه میکنند. آن را بهعنوان آزادی بیان، حق شنیده شدن در مجمع و از این قبیل تعریف میکنند. اما منظور آتنیهای باستان این نبود. منظور آتنیهای باستان از ایسگوریا این بود که هر یک از ما حق دارد بر اساس دیدگاههایش و بر پایهٔ محتوای خودش داوری شود – صرفنظر از اینکه چه کسی هستیم و چه کسی این سخنان را بر زبان آورده، و حتی مستقل از فصاحت و شیوایی و آرایههای بیانِ پرقدرت و هیجانانگیز. حال اگر ما به این حد برسیم، یا در مقطعی به آن برسیم، که هیچکس باور نکند کسی واقعاً چیزی را گفته که ادعا میشود گفته است، شاید آنگاه هنرِ مدتها ازدسترفتهٔ داوریِ آنچه میشنویم بر اساس استحکامِ استدلال، نه بر اساس میزانِ علاقه یا بیعلاقگیمان به گوینده، و نه بر اساس اینکه آن شخص تا چه حد فصیح سخن گفته، دوباره در ما شکل بگیرد.
مصاحبهکننده: فکر میکنم این جمعبندیِ بسیار خوبی است، رویکردی خلاقانه و مثبت برای اندیشیدن به موضوع. اما احتمالاً لازم است بتوانیم به افراد مشخصی اعتماد کنیم. این برای روابط انسانیِ ما امری بنیادی است. زندگی بیش از حد فرساینده میشود اگر مجبور باشیم تکتک جملات را از نقطهٔ صفر داوری کنیم. میدانید، مردم میگویند «من یانیس را دوست دارم، به او اعتماد دارم، پس به حرفهایش گوش میدهم». اگر این را از دست بدهیم، موضوع بسیار جدی است. اجازه بدهید، با وجود اینکه در فضای مثبت آغاز سال نو هستیم، کمی نقش بدبین را بازی کنم. پیامدِ بدِ همهٔ این ماجرا، بهجای شکلگیریِ مخاطبی زیبا، پیچیده و شکاک که همهچیز را از اصول نخستین میسنجد، میتواند این باشد که به وضعیتی شبیه دوران قرون وسطی یا حتی پیش از آن بازگردیم؛ جایی که اکثریتِ جمعیت در دریایی از باورها و محتواهای کاملاً نادرست غوطهورند، چون به اطلاعات باکیفیت دسترسی ندارند و نمیدانند چه چیزی درست است و چه چیزی نیست و به چه باید باور داشت. همهٔ اینها هم با شتابی چندبرابر، بهواسطهٔ پلتفرمهایی مثل یوتیوب و این باتهای هوش مصنوعی و امثال آن رخ میدهد.
و به جهانی بازمیگردیم که دسترسی به اطلاعات خوب یک کالای لوکس است و فقط کسانی که توان پرداخت دارند، با خرید اشتراک رسانههای معتبر یا هر چیز مشابه، تصوری از آنچه واقعاً در جهان میگذرد خواهند داشت، و اغلب مردم به انواع و اقسام یاوهها باور خواهند داشت. آیا این پیامد محتملتر نیست؟
واروفاکیس: البته که هست. اما میدانید، پایان سال است و آغاز سال نو. تصمیم گرفتم به پدیدهای که شبهای بیخوابیِ زیادی برایم به همراه داشته، نگاهی مثبت بکنم. دلیل اینکه استدلال من دربارهٔ «ایسگوریا» در نهایت، آنطور که شما میگویید، از هم میپاشد این است که ما در یک میدان برابر قرار نداریم. اینطور نیست که اینترنتی وجود داشته باشد و همهٔ ما با یک ناتوانیِ یکسان در اثبات اینکه کی هستیم و چه گفتهایم و چه نگفتهایم مواجه باشیم. تودهها آشکارا در چنین وضعیتی قرار دارند؛ من خودم آن را تجربه کردهام و حالا چند ماهی است که هر روز آن را تجربه میکنم. در حالی که افرادی مثل ایلان ماسک، جف بزوس، و کسانی که الگوریتمها را بهینه میکنند و کنترل میکنند چه چیزی نمایش داده شود و چه چیزی نه، هویتی بسیار تثبیتشده دارند. آنها میتوانند دیدگاههای خود را منتشر کنند بیآنکه هیچ امکانی وجود داشته باشد که عمداً و بهطور راهبردی با دیگران اشتباه گرفته شوند.
فرِدی، به همین دلیل است که تو با من مصاحبه کردی؛ بابتش متشکرم. چند سال پیش کتابی نوشتم با عنوان «تکنوفئودالیسم». مایلم بحث را یک گام جلوتر ببرم: ما در یک عصر تکنیکی زندگی میکنیم. این چیزی است که من طی چندین سال بهعنوان یک فرضیه، بهعنوان یک گزاره، مطرح کردهام.
این نقطهٔ اوج است. یعنی همین نشان میدهد که حتی ما کاربران جدید ابری، که حتی کنترل، مالکیت یا حقوق قانونی بر هویت دیداریـشنیداری خود نداریم، هیچ کنترلی بر امور خود نداریم. این همان تکنوفئودالیسم است که از حد خارج شده. چتباتها، هوش مصنوعی که در این پلتفرمها ادغام شده، میتوانند بهطور کامل هر امکان گفتوگو و بحث را خراب کنند. و آیا این تأییدی نیست بر اینکه ایدئولوگهای هر دو سوی افراط، راست افراطی و چپ افراطی، که از نظر من واقعاً چپ نیستند، در اعتراض به نقض آزادی بیان خودشان بسیار خوب عمل میکنند، اما هیچ علاقهای به آزادی بیان ندارند. آنها صرفاً میخواهند دیگران را از پلتفرم حذف کنند و این موضوع باید در صدر فهرست اولویتهای ما برای مبارزه قرار گیرد.
مصاحبهکننده: اجازه بده یک سؤال فلسفی دیگر بپرسم. آیا این موضوع دوباره شما را به فکر اصول دموکراسی نمیاندازد؟ خوب، به نظر میرسد که بسیاری توسط این چیزها فریب خوردهاند و چقدر آسان به نظر میرسد که محتوای جعلی و ضعیف اینچنینی منتشر شود؟ واقعیت این است که ۸۰۰ هزار نفر ویدئویی را تماشا کردند که بهوضوح ساختهٔ هوش مصنوعی بود و ظاهراً باورش کردند و در بخش نظرات دربارهاش بحث کردند. آیا این کمی افسردهکننده نیست؟ چقدر مردم بهراحتی فریب میخورند. خودتان گفتید که تقریباً توسط ویدئوی خودتان فریب خوردید، پس این به معنای کوچک شمردن دیگران نیست. فقط این است که ما بهعنوان یک گونه، توانایی محدودی در جدا کردن محتوای واقعی از جعلی داریم.
واروفاکیس: بله، از یک طرف خیلی افسردهکننده است. اما از طرف دیگر، من یکی از آن افرادی نیستم که عینک خوشبینانه بزنند و باور کنند که ما در چهار یا پنج دههٔ گذشته در چیزی به نام دموکراسی زندگی کردهایم. دموکراسی ایدهٔ بزرگی برای آرزو کردن است، اما ما هرگز واقعاً دموکراسی نداشتهایم. جوامع غربی ما همیشه اولیگارشی بودهاند، با انتخابات دورهای، و شنیدن نظر عمومی همیشه بخشی از این جوامع اولیگارشی بوده است.
کل مفهوم دموکراسی، که شروع آن را نه در آتن، اما دستکم در سنت غربی میتوان از مگنا کارتا۲ جستوجو کرد، که بعدتر در قانون اساسی آمریکا بازتاب یافت. همهٔ اینها تلاشی بوده برای ایجاد قراردادهای اجتماعی که رابطهٔ پادشاه با اربابانش را تنظیم می کرد – در ایالات متحده هم به همین شکل است. اگر مقالات فدرالیستها را بخوانید، همهاش دربارهٔ این است که چگونه از طریق انواع سازوکارهای «کنترل و موازنه»- که قرار است مانع شوند- دِموس را از دموکراسی دور نگه دارند تا اساساً هرگز دموکراسی تحقق پیدا نکند. اما دقیقاً به همین دلیل است که من چنین تعهد عاطفی و ایدئولوژیکی عمیقی به ایدهٔ «ایسگوریا» دارم، زیرا برای من این مهمترین اصل است برای پاسداشت این ایده که باید واقعاً به استحکام استدلالهای دیگران اهمیت بدهیم. اگر بتوانیم راههایی را تصور کنیم برای تضعیف قدرت کلانفناوری، بهنحوی که ما را به ارزیابی استدلالها بر اساس قوتها و ضعفهایشان نزدیکتر کند، نه اینکه کاملاً اسیر نظام ستارهمحور باشیم؛ اینکه «فرِدی این را میگوید»، «یانیس آن را میگوید» یا مثلاً «تیلور سوئیفت» گفته است. مسئله این است که استحکام واقعیِ ادعاهایی که مردم مطرح میکنند چیست؟ اگر بتوانیم به آن نقطه برسیم، بسیار به بازگرداندن «دِموس» در چارچوب نوعی رؤیای دموکراتیک نزدیکتر خواهیم شد.
مصاحبهکننده: فکر میکنید هیچکدام از اینها ممکن است؟ من بهدنبال یک نکتهٔ امیدوارکننده برای جمعبندی هستم، اما مطمئن نیستم به کجا برسد. اگر بخواهیم اینطور بگوییم: اگر بخواهیم مقاومتی علیه اربابان تکنوفئودال بکنیم، از کجا باید شروع کنیم؟ آیا شما از آن دسته افرادی هستید که فکر میکنند باید تا حدی آفلاین شویم و به کتابها بازگردیم؟ از کجا شروع کنیم؟
واروفاکیس: خب، ببینید، بسیار آسان است که دلسرد و بدبین شد. میدانید، تمام شواهد تجربی به نتایج بد در چند سال آینده اشاره میکند. اما من یک انتخاب سیاسی و اخلاقی کردهام که دلسرد و بدبین نباشم. همانطور که در گذشتهای نهچندان دور، «حق الهی پادشاهان» امری بدیهی تلقی میشد، امروز «حق الهی کلانفناوری» برای دستکاری ذهنهای ما و کنترل بحثهای ما بدیهی انگاشته میشود. ما حق الهی پادشاهان را تغییر دادیم؛ این را هم میتوانیم تغییر دهیم.
و میدانید، بعضیها از من میپرسند چطور میشود که در بعضی لحظات اینقدر معقول حرف میزنید و بعد خودتان را چپگرا و مارکسیست مینامید. خب، فرِدی، دلیلش این است که من در نهایت به تنظیمگری باور ندارم. به این باور ندارم که دولت بیاید و همهچیز را تنظیم کند. من به حقوق مالکیت باور دارم. برای من آنچه واقعاً اهمیت دارد این است که چه کسی مالکِ چه چیزی است. حتی برایم مهم نیست الگوریتمها دربارهٔ من چه میدانند. میدانید واقعاً چه چیزی برایم مهم است؟ اینکه مالکِ این چیزهای لعنتی چه کسی است؟ چه کسی مسئول بهینهسازی آنها برای اهداف مشخص است.
برای مثال، میدانیم که فیسبوک از دامن زدن به خشم و نفرت میان کاربرانش پول زیادی به دست آورده، چون این همان چیزی است که باعث میشود این پلتفرم چشمهای بیشتری را به صفحه خیره کند و بعد تبلیغات را هدفگذاری کند و غیره. اینطور نیست که الگوریتم «بخواهد» مردم خشمگین باشند. الگوریتم توسط افرادی خاص برنامهریزی شده که توسط مالکان پلتفرم به کار گرفته شدهاند تا با توجه به حقوق مالکیتی که دارند، به شیوهای مشخص پول درآورند.
من به «مالکیت مشاع دیجیتال» باور دارم. میدانید، من هنوز به اندازهای سن دارم- برخلاف شما- که اینترنت را زمانی که در یک مالکیت مشاع بود، به یاد بیاورم. ما برنامه مینوشتیم و آنها را در اینترنت با هم به اشتراک میگذاشتیم و این واقعاً بستری برای گفتوگو و خلاقیت بود. و میدانید، امروز هر کسی که یک صفحهٔ وب را دانلود میکند یا میخواند، در بالای صفحه آن نشانی را میبیند.
بله، این یک برنامه است. کسی این برنامه را در دههٔ ۱۹۷۰ نوشت و حتی یک پنی هم بابتش نگرفت. این بخشی از همان مبادلهٔ هدیهمحور بود؛ جامعهای از افراد خلاق که گرد هم میآمدند تا با هم کاری انجام دهند. حالا، من حتی مخالف این نیستم که مردم از آن پول دربیاورند، اما بهعنوان یک فعالیت و بنگاه تعاونی. در حالی که با خصوصیسازی آنچه من «سرمایهٔ ابری» مینامم و با تسلیح این سرمایهٔ ابری برای سلب حقوق مالکیت خود ما، حتی بر هویت دیداری-شنیداریمان، این برای من «تکنوفئودالیسم» است. این همان چیزی است که باید با آن مبارزه کرد، همانطور که در دورانی قبل تر یعنی فئودالیسم با آن مبارزه شد.
مصاحبهکننده: یانیس، یانیس واروفاکیسِ واقعی، به شما اطمینان میدهم که ممکن است در روزهای آینده نسخهای از این ماجرا را ببینیم که اندکی متفاوت باشد. اما در این میان، از وقتی که امروز در اختیار ما گذاشتید سپاسگزارم و سال نو مبارک.
واروفاکیس: سال نو شما هم مبارک. ممنونم، فرِدی.
این گفتوگوی واقعی و اصیل با یانیس واروفاکیس بود که با «آنهِرد» دربارهٔ تجربهٔ یکی از بیشترین افراد جعلشده با فناوری دیپفیک در یوتیوب صحبت میکرد. او همهجا هست، اما فقط یکی از هر پنج نسخهٔ او واقعاً واقعی است. ما امروز نسخهٔ واقعی را داشتیم. آیندهای که ظاهراً همین حالا در آن قرار داریم، دستکم نگرانکننده است. به نظر من، یانیس بهطور معمول مثبتاندیش و فلسفی با تجربهای مواجه شد که حتماً باید بسیار آزاردهنده باشد. اما برای همهٔ ما، در آستانهٔ ورود به سال ۲۰۲۶، واقعاً لازم است سطح هوشیاری خود را بالا ببریم و نسبت به اطلاعاتی که به آن اعتماد میکنیم بسیار شکاکتر باشیم.
————————————————
۱. ویدئوی جعلی (Deepfake)، ترکیب فیلمهای موجود و منبع توسط هوش مصنوعی که فرد یا افرادی را در حال انجام کاری در موقعیتی نشان میدهد که هرگز در واقعیت رخ نداده است.
۲. مگنا کارتا (Magna Carta) یک سند تاریخی بسیار مهم است که در سال ۱۲۱۵ میلادی در انگلستان امضا شد. نام آن از لاتین گرفته شده و به معنای «عهدنامهٔ بزرگ» است.
————————————————
منبع: اندیشه نو


