دسته‌ها
اخبار

گیتس در مورد سانسور هوش مصنوعی – جاناتان تورلی


در زیر ستون من در نیویورک پست در مورد درخواست بیل گیتس برای استفاده از هوش مصنوعی برای مبارزه با “قطب بندی سیاسی” در اینترنت است. به نظر می رسد مشکل در اینترنت آن انسان های مزاحم هستند که «می خواهند چیزهایی را باور کنند» که نباید آنها را باور کنند. برای ایجاد صلح و آرامش جمعی از طریق ی،ان سازی محتوا، اربابان هوش مصنوعی جدید را وارد کنید.

در اینجا ستون است:

“ما هوش مصنوعی هستیم.” که سلام بورگ مانند می تواند به زودی در قالب به اینترنت بیاید اربابان جدید هوش مصنوعی. بیل گیتس، بنیانگذار و میلیاردر مایکروسافت، در یک مصاحبه هولناک اخیر، خواستار استفاده از هوش مصنوعی نه تنها برای مبارزه با «اطلاعات غلط دیجیتال»، بلکه «قطب‌بندی سیاسی» شد.

او تنها آ،ین ،ی است که خواستار استفاده از هوش مصنوعی یا الگوریتم ها برای شکل دادن به آنچه مردم در اینترنت می گویند یا می خوانند است. خطر چنین نظامی در جایی مشهود است که آزادی بیان، مانند مقاومت، بیهوده شود.

گیتس در مصاحبه ای در یک برنامه آلم، به نام “Handelsblatt Disrupt” خواستار رهاسازی هوش مصنوعی برای جلوگیری از “بزرگنمایی شدن برخی دیدگاه ها توسط کانال های دیجیتال” شد. مشکل این است که ما اجازه می‌دهیم «تئوری‌های توطئه مختلف مانند QAnon یا هر چیز دیگری توسط افرادی که می‌خواهند آن چیزها را باور کنند، منفجر شود».

گیتس افزود که هوش مصنوعی می‌تواند با بررسی «سوگیری تأیید» با «قطب‌بندی سیاسی» مبارزه کند.

سوگیری تایید اصطلاحی است که مدت‌هاست برای توصیف تمایل افراد به جستجو یا تفسیر اطلاعات به گونه‌ای که باورهای خود را تأیید می‌کند استفاده می‌شود. اکنون از آن برای رد ، افرادی با دیدگاه‌های مخالف به‌،وان افراد ناد، استفاده می‌شود که بند انگشتان خود را در اینترنت می‌کشند – افرادی که با ناتو، در پذیرش منطق پشت سیاست‌های مربوط به کووید، تغییرات آب و هوا یا بسیاری از مسائل سیاسی دیگر، همه ما را به خطر می‌اندازند.

این اولین فراخو، نیست که اربابان هوش مصنوعی از ما در برابر خودمان محافظت کنند. سپتامبر گذشته، گیتس سخنر، اصلی را انجام داد در اج، فوربس 400 در مورد بشردوستی. او به میلیاردرهای همکارش گفت که “قطبی شدن و عدم اعتماد یک مشکل است.”

مشکل دوباره … خوب … مردم: «مردم به دنبال راه حل های ساده هستند [and] حقیقت گاهی اوقات خسته کننده است.»

البته نه هوش مصنوعی که راه حل ها را فراهم می کند. گیتس پیشنهاد کرد که در غیر این صورت، همه ما می‌تو،م بمیریم: «قطب‌بندی سیاسی ممکن است همه چیز را به پایان برساند، ما یک انتخابات معلق و یک جنگ داخلی خواهیم داشت.»

دیگران دنیای جدید شجاعی را پیشنهاد کرده اند که در آن شهروندان به دقت در آنچه می خوانند و می بینند راهنمایی می شوند. رهبران دموکرات خواستار نوعی «الگوریتم های روشنگرانه» برای چارچوب بندی آنچه شهروندان در اینترنت به آن دسترسی دارند، شده اند. در سال 2021، سناتور الیزابت وارن (D-M،.) اعتراض کرد که مردم به نظرات آگاهانه او و کارشناسان برجسته گوش نمی دهند. در عوض، آنها با جست‌وجو در آمازون و یافتن کتاب‌های «اشاعه‌کنندگان برجسته اطلاعات نادرست»، دیدگاه‌های شکاکان را می‌خواندند.

وارن آمازون را به دلیل ش،ت در محدود ، جستجوها یا انتخاب‌ها سرزنش کرد: «این الگو و عملکرد نادرست نشان می‌دهد که آمازون یا نمی‌خواهد یا نمی‌تواند شیوه‌های تجاری خود را برای جلوگیری از انتشار دروغ‌ها یا فروش محصولات نامن، تغییر دهد.» وارن در نامه خود 14 روز به شرکت مهلت داد تا الگوریتم های خود را تغییر دهد و مانع تلاش برای خواندن نظرات مخالف شود.

رسانه‌های اجتماعی به چنین تماس‌هایی پاسخ دادند و درگیر سانسور گسترده ،، شدند که دیدگاه‌های مخالفی در مورد دستورات ماسک، ایمنی وا،ن، دستورات مدارس و منشاء COVID-19 داشتند. بسیاری از آن انتقادات و دیدگاه‌ها اکنون قابل قبول و مشروع هستند، اما دانشمندان ممنوع و سانسور شدند. هیچ “قطبی سازی” مجاز نبود. مردم هرگز اجازه نداشتند آن بحث کامل را در رسانه های اجتماعی داشته باشند زیرا چنین دیدگاه هایی اطلاعات نادرست اعلام شد.

پرزیدنت بایدن به این فراخوان ها برای سانسور ملحق شد، که اغلب شبیه یک رئیس سانسور است. محکوم ، شرکت های رسانه های اجتماعی به دلیل “کشتن مردم” با مسدود ن، کافی او اخیراً ابراز تردید کرده است که عموم مردم بتوانند بدون چنین سانسوری توسط «ویراستاران» در Big Tech «حقیقت را بدانند».

آنها بدنه مشتاقی از سانسورکنندگان را در شرکت هایی مانند توییتر پیدا ،د. پس از تصدی سمت مدیرعاملی، پاراگ آگراوال متعهد شد که محتوا را تنظیم کند به ،وان “بازتاب چیزهایی که ما معتقدیم منجر به یک گفتگوی عمومی سالم تر می شود.” آگراوال گفت که این شرکت «کمتر بر روی آزادی بیان تمرکز خواهد کرد» زیرا «سخنر، در اینترنت آسان است. ا،ر مردم می توانند صحبت کنند. جایی که نقش ما به ویژه مورد تاکید قرار می گیرد این است که چه ،ی شنیده می شود.»

این دیدگاه هفته گذشته در اولین بار تکرار شد شنیدن برنامه سانسور توییتر. آنیکا کولیر ناوارولی، مدیر سابق توییتر، در مورد آنچه که او مکرراً آن را استاندارد «نقطه‌دار» مورد استفاده او و کارکنانش در مورد سانسور می‌نامید، شهادت داد. او توضیح داد که آنها فقط آزادی بیان را در مقابل امنیت عمومی در تصمیم گیری در مورد اجازه دادن به ،ی برای صحبت ، متعادل نمی کنند. سانسور بیشتر به افراد درگیر بستگی داشت: “ما از بیان آزادانه چه ،، به بهای امنیت آنها محافظت می کنیم و حاضریم اجازه دهیم مردم آزادانه صحبت کنند؟”

همه اینها با یک AI Overlord که می تواند از ما در برابر شک و تردیدها و اختلافات خود محافظت کند، بسیار آسان تر است. در حال حاضر، مایکروسافت، شرکتی که گیتس تأسیس کرد، از NewsGuard استفاده می‌کند، یک داور اطلاعات نادرست که خودش را توصیف می‌کند، که سایت‌ها را رتبه‌بندی می‌کند و به دلیل هدف قرار دادن رسانه‌های محافظه‌کار به طور گسترده مورد انتقاد قرار گرفته است. اکنون، این کار می‌تواند به یک ارباب هوش مصنوعی واگذار شود. البته هوش مصنوعی باقی می ماند. انسان باید برنامه‌ریزی کند که چه چیزی حقیقت است و چه چیزی «قطب‌بندی» غیرقابل تحمل. این می تواند افزایش یافته است نسخه ChatGPT، سرویس محبوب هوش مصنوعی که مایکروسافت به تازگی در موتور جستجوی بینگ خود گنجانده شده است. محتوای «توهین‌آمیز» را سانسور می‌کند و دیدگاه‌های خاصی را ممنوع می‌کند، زیرا به او گفته شده است که این کار را انجام دهد.

هوش مصنوعی حقیقت جمعی را اعمال می کند که باید برای یک منفعت بزرگتر که توسط چهره هایی مانند گیتس تعیین می شود، تقویت شود.

واضح است که با آن روبرو نیستیم یک مکعب غول پیکر تهدید کننده در حال چرخش سیاره ما (نه، بالن های چینی به حساب نمی آیند). با این حال، پس از سال‌ها سانسور، اگر همه چیز به طرز وحشتناکی شبیه به “سپرهای خود را پایین بیاورید و تسلیم شوید… مقاومت بیهوده است” بخشیده خواهید شد.

جاناتان تورلی وکیل دادگستری و استاد دانشکده حقوق دانشگاه جورج واشنگتن است.

مثل این:

پسندیدن بارگذاری…


منبع: https://jonathanturley.org/2023/02/15/free-s،ch-is-futile-gates-goes-full-borg-on-ai-censor،p/