در زیر ستون من در نیویورک پست در مورد درخواست بیل گیتس برای استفاده از هوش مصنوعی برای مبارزه با “قطب بندی سیاسی” در اینترنت است. به نظر می رسد مشکل در اینترنت آن انسان های مزاحم هستند که «می خواهند چیزهایی را باور کنند» که نباید آنها را باور کنند. برای ایجاد صلح و آرامش جمعی از طریق ی،ان سازی محتوا، اربابان هوش مصنوعی جدید را وارد کنید.
در اینجا ستون است:
“ما هوش مصنوعی هستیم.” که سلام بورگ مانند می تواند به زودی در قالب به اینترنت بیاید اربابان جدید هوش مصنوعی. بیل گیتس، بنیانگذار و میلیاردر مایکروسافت، در یک مصاحبه هولناک اخیر، خواستار استفاده از هوش مصنوعی نه تنها برای مبارزه با «اطلاعات غلط دیجیتال»، بلکه «قطببندی سیاسی» شد.
او تنها آ،ین ،ی است که خواستار استفاده از هوش مصنوعی یا الگوریتم ها برای شکل دادن به آنچه مردم در اینترنت می گویند یا می خوانند است. خطر چنین نظامی در جایی مشهود است که آزادی بیان، مانند مقاومت، بیهوده شود.
گیتس در مصاحبه ای در یک برنامه آلم، به نام “Handelsblatt Disrupt” خواستار رهاسازی هوش مصنوعی برای جلوگیری از “بزرگنمایی شدن برخی دیدگاه ها توسط کانال های دیجیتال” شد. مشکل این است که ما اجازه میدهیم «تئوریهای توطئه مختلف مانند QAnon یا هر چیز دیگری توسط افرادی که میخواهند آن چیزها را باور کنند، منفجر شود».
گیتس افزود که هوش مصنوعی میتواند با بررسی «سوگیری تأیید» با «قطببندی سیاسی» مبارزه کند.
سوگیری تایید اصطلاحی است که مدتهاست برای توصیف تمایل افراد به جستجو یا تفسیر اطلاعات به گونهای که باورهای خود را تأیید میکند استفاده میشود. اکنون از آن برای رد ، افرادی با دیدگاههای مخالف به،وان افراد ناد، استفاده میشود که بند انگشتان خود را در اینترنت میکشند – افرادی که با ناتو، در پذیرش منطق پشت سیاستهای مربوط به کووید، تغییرات آب و هوا یا بسیاری از مسائل سیاسی دیگر، همه ما را به خطر میاندازند.
این اولین فراخو، نیست که اربابان هوش مصنوعی از ما در برابر خودمان محافظت کنند. سپتامبر گذشته، گیتس سخنر، اصلی را انجام داد در اج، فوربس 400 در مورد بشردوستی. او به میلیاردرهای همکارش گفت که “قطبی شدن و عدم اعتماد یک مشکل است.”
مشکل دوباره … خوب … مردم: «مردم به دنبال راه حل های ساده هستند [and] حقیقت گاهی اوقات خسته کننده است.»
البته نه هوش مصنوعی که راه حل ها را فراهم می کند. گیتس پیشنهاد کرد که در غیر این صورت، همه ما میتو،م بمیریم: «قطببندی سیاسی ممکن است همه چیز را به پایان برساند، ما یک انتخابات معلق و یک جنگ داخلی خواهیم داشت.»
دیگران دنیای جدید شجاعی را پیشنهاد کرده اند که در آن شهروندان به دقت در آنچه می خوانند و می بینند راهنمایی می شوند. رهبران دموکرات خواستار نوعی «الگوریتم های روشنگرانه» برای چارچوب بندی آنچه شهروندان در اینترنت به آن دسترسی دارند، شده اند. در سال 2021، سناتور الیزابت وارن (D-M،.) اعتراض کرد که مردم به نظرات آگاهانه او و کارشناسان برجسته گوش نمی دهند. در عوض، آنها با جستوجو در آمازون و یافتن کتابهای «اشاعهکنندگان برجسته اطلاعات نادرست»، دیدگاههای شکاکان را میخواندند.
وارن آمازون را به دلیل ش،ت در محدود ، جستجوها یا انتخابها سرزنش کرد: «این الگو و عملکرد نادرست نشان میدهد که آمازون یا نمیخواهد یا نمیتواند شیوههای تجاری خود را برای جلوگیری از انتشار دروغها یا فروش محصولات نامن، تغییر دهد.» وارن در نامه خود 14 روز به شرکت مهلت داد تا الگوریتم های خود را تغییر دهد و مانع تلاش برای خواندن نظرات مخالف شود.
رسانههای اجتماعی به چنین تماسهایی پاسخ دادند و درگیر سانسور گسترده ،، شدند که دیدگاههای مخالفی در مورد دستورات ماسک، ایمنی وا،ن، دستورات مدارس و منشاء COVID-19 داشتند. بسیاری از آن انتقادات و دیدگاهها اکنون قابل قبول و مشروع هستند، اما دانشمندان ممنوع و سانسور شدند. هیچ “قطبی سازی” مجاز نبود. مردم هرگز اجازه نداشتند آن بحث کامل را در رسانه های اجتماعی داشته باشند زیرا چنین دیدگاه هایی اطلاعات نادرست اعلام شد.
پرزیدنت بایدن به این فراخوان ها برای سانسور ملحق شد، که اغلب شبیه یک رئیس سانسور است. محکوم ، شرکت های رسانه های اجتماعی به دلیل “کشتن مردم” با مسدود ن، کافی او اخیراً ابراز تردید کرده است که عموم مردم بتوانند بدون چنین سانسوری توسط «ویراستاران» در Big Tech «حقیقت را بدانند».
آنها بدنه مشتاقی از سانسورکنندگان را در شرکت هایی مانند توییتر پیدا ،د. پس از تصدی سمت مدیرعاملی، پاراگ آگراوال متعهد شد که محتوا را تنظیم کند به ،وان “بازتاب چیزهایی که ما معتقدیم منجر به یک گفتگوی عمومی سالم تر می شود.” آگراوال گفت که این شرکت «کمتر بر روی آزادی بیان تمرکز خواهد کرد» زیرا «سخنر، در اینترنت آسان است. ا،ر مردم می توانند صحبت کنند. جایی که نقش ما به ویژه مورد تاکید قرار می گیرد این است که چه ،ی شنیده می شود.»
این دیدگاه هفته گذشته در اولین بار تکرار شد شنیدن برنامه سانسور توییتر. آنیکا کولیر ناوارولی، مدیر سابق توییتر، در مورد آنچه که او مکرراً آن را استاندارد «نقطهدار» مورد استفاده او و کارکنانش در مورد سانسور مینامید، شهادت داد. او توضیح داد که آنها فقط آزادی بیان را در مقابل امنیت عمومی در تصمیم گیری در مورد اجازه دادن به ،ی برای صحبت ، متعادل نمی کنند. سانسور بیشتر به افراد درگیر بستگی داشت: “ما از بیان آزادانه چه ،، به بهای امنیت آنها محافظت می کنیم و حاضریم اجازه دهیم مردم آزادانه صحبت کنند؟”
همه اینها با یک AI Overlord که می تواند از ما در برابر شک و تردیدها و اختلافات خود محافظت کند، بسیار آسان تر است. در حال حاضر، مایکروسافت، شرکتی که گیتس تأسیس کرد، از NewsGuard استفاده میکند، یک داور اطلاعات نادرست که خودش را توصیف میکند، که سایتها را رتبهبندی میکند و به دلیل هدف قرار دادن رسانههای محافظهکار به طور گسترده مورد انتقاد قرار گرفته است. اکنون، این کار میتواند به یک ارباب هوش مصنوعی واگذار شود. البته هوش مصنوعی باقی می ماند. انسان باید برنامهریزی کند که چه چیزی حقیقت است و چه چیزی «قطببندی» غیرقابل تحمل. این می تواند افزایش یافته است نسخه ChatGPT، سرویس محبوب هوش مصنوعی که مایکروسافت به تازگی در موتور جستجوی بینگ خود گنجانده شده است. محتوای «توهینآمیز» را سانسور میکند و دیدگاههای خاصی را ممنوع میکند، زیرا به او گفته شده است که این کار را انجام دهد.
هوش مصنوعی حقیقت جمعی را اعمال می کند که باید برای یک منفعت بزرگتر که توسط چهره هایی مانند گیتس تعیین می شود، تقویت شود.
واضح است که با آن روبرو نیستیم یک مکعب غول پیکر تهدید کننده در حال چرخش سیاره ما (نه، بالن های چینی به حساب نمی آیند). با این حال، پس از سالها سانسور، اگر همه چیز به طرز وحشتناکی شبیه به “سپرهای خود را پایین بیاورید و تسلیم شوید… مقاومت بیهوده است” بخشیده خواهید شد.
جاناتان تورلی وکیل دادگستری و استاد دانشکده حقوق دانشگاه جورج واشنگتن است.
منبع: https://jonathanturley.org/2023/02/15/free-s،ch-is-futile-gates-goes-full-borg-on-ai-censor،p/