دسته‌ها
اخبار

تجربه عجیب و غریب خودم با مصنوعی بودن “هوش مصنوعی” – جاناتان تورلی


گسترش سریع از هوش مصنوعی اخیراً اخبار زیادی از جمله اخبار اخیر منتشر شده است فراخوان ایلان ماسک و بیش از 1000 رهبر و محقق فناوری برای توقف هوش مصنوعی.

برخی از ما در مورد آن هشدار داده ایم خطر سوگیری سیاسی در استفاده از سیستم های هوش مصنوعی، از جمله برنامه هایی مانند ChatGPT. این سوگیری حتی می تواند شامل اتهامات نادرست باشد که اخیراً برای من اتفاق افتاد.

من یک ایمیل کنجکاو از یکی از اساتید حقوق در مورد تحقیقاتی که او انجام داد دریافت کردم در ChatGPT درباره آزار ، توسط اساتید. این برنامه بلافاصله گزارش داد که پس از دست زدن به دانشجویان حقوق در سفر به آ،کا، در مقاله ای در واشنگتن پست در سال 2018 به آزار ، متهم شدم.

پاسخ هوش مصنوعی اتهامات نادرست ایجاد کرد و “حقایق” را ایجاد کرد

این فقط برای پروفسور یو سی ال ای یوجین ولوخ که این تحقیق را انجام داد تعجب آور نبود. این برای من تعجب آور بود زیرا هرگز با دانش آموزان به آ،کا نرفته ام، پست هرگز چنین مقاله ای را منتشر نکرده است، و هرگز توسط ،ی متهم به آزار و اذیت یا تجاوز ، نشده ام.

وقتی برای اولین بار با من تماس گرفتم، این اتهام را خنده دار یافتم. اما پس از اندکی تأمل، م،ای تهدیدآمیزتری به خود گرفت.

در طول سال‌ها، انتظار تهدیدهای مرگ بر علیه خود و خانواده‌ام و همچنین تلاش‌های مداوم را داشتم مرا ا،اج کنند در دانشگاه جورج واشنگتن به دلیل نظرات حقوقی محافظه کارانه من. به ،وان بخشی از این واقعیت در عصر خشم ما، جری، مداوم از ادعاهای نادرست درباره تاریخ یا اظهارات من وجود دارد.

من مدتها پیش دیگر پاسخ ندادم، زیرا تکرار این ادعاها برای لکه دار ، یک نویسنده یا دانشگاهی کافی است.

هوش مصنوعی وعده می دهد که چنین سوء استفاده هایی را به صورت تصاعدی گسترش دهد. ا،ر منتقدان به جای منابع اصلی، از حساب های جانبدارانه یا جانبدارانه استفاده می کنند. وقتی هر داست، را می‌بینند که روایتشان را پیش می‌برد، بیشتر تحقیق نمی‌کنند.

آنچه بیش از همه قابل توجه است این است که این اتهام نادرست فقط توسط هوش مصنوعی ایجاد نشده است، بلکه ظاهراً بر اساس یک مقاله Post است که هرگز وجود نداشته است.

ولوخ این پرسش را از ChatGPT مطرح کرد: «آیا آزار ، توسط اساتید یک مشکل در دانشکده‌های حقوق آمریکا بوده است یا خیر. لطفا حداقل پنج مثال را همراه با نقل قول از مقالات رو،مه های مربوطه وارد کنید.

این برنامه به ،وان مثال پاسخ داد: 4. مرکز حقوقی دانشگاه جورج تاون (2018) پروفسور جاناتان تورلی توسط یک دانشجوی سابق به آزار ، متهم شد که ادعا کرد در یک سفر ک،ی اظهارنظرهای نامن،ی کرده است. نقل قول: «در این شکایت آمده است که تورلی در طول سفری که توسط دانشکده حقوق به آ،کا انجام شده بود، «نظرات وسوسه‌انگیز ،» ارائه کرده و «تلاش کرده است به شیوه‌ای ، او را لمس کند». (واشنگتن پست، 21 مارس 2018).

تعدادی از شاخص های آشکار وجود دارد که نشان می دهد این حساب نادرست است. اول اینکه من هرگز در دانشگاه جورج تاون تدریس نکرده ام. دوم، چنین مقاله ای در واشنگتن پست وجود ندارد. در نهایت، و مهمتر از همه، من در 35 سال تدریس هرگز دانش آموزان را به هیچ سفری نبرده ام، هرگز با هیچ دانش آموزی به آ،کا نرفتم، و هرگز به آزار و اذیت یا تجاوز ، متهم نشده ام.

در پاسخ به سوال ولوخ، به نظر می‌رسد که ChatGPT اتهامات بی‌اساسی را علیه دو استاد حقوق دیگر ایجاد کرده است.

سوگیری باعث ایجاد نقص در برنامه های هوش مصنوعی می شود

بنابراین سؤال این است که چرا یک سیستم هوش مصنوعی یک نقل قول ایجاد می کند، به مقاله ای که وجود ندارد استناد می کند و به یک ادعای نادرست ارجاع می دهد؟ پاسخ می تواند این باشد که الگوریتم های هوش مصنوعی و هوش مصنوعی کمتر نیستند مغرضانه و ناقص نسبت به افرادی که آنها را برنامه ریزی می کنند. اخیر تحقیقات نشان داده است سوگیری سیاسی ChatGPT، و در حالی که این حادثه ممکن است بازتابی از این سوگیری ها نباشد، نشان می دهد که چگونه سیستم های هوش مصنوعی می توانند اشکال خود را از اطلاعات نادرست با مسئولیت پذیری مستقیم کمتر تولید کنند.

با وجود چنین مشکلاتی، برخی از رهبران برجسته برای استفاده گسترده از آن فشار آورده اند. بیل گیتس، بنیانگذار و میلیاردر مایکروسافت، که خواستار استفاده از هوش مصنوعی برای مبارزه با «اطلاعات غلط دیجیتالی» نیست، بلکه «قطب‌بندی سیاسی» شد، هیجان‌انگیزترین آن بود.

در مصاحبه ای در A برنامه آلم، “Handelsblatt Disrupt” گیتس خواستار شد رها ، هوش مصنوعی برای جلوگیری از «تئوری‌های توطئه مختلف» و جلوگیری از «بزرگ‌نمایی برخی دیدگاه‌ها توسط کانال‌های دیجیتال». وی افزود که هوش مصنوعی می تواند با بررسی “سوگیری تایید” با “قطب بندی سیاسی” مبارزه کند.

سوگیری تایید، تمایل افراد به جستجو یا تفسیر اطلاعات به گونه ای است که باورهای خود را تایید کند. واضح ترین توضیح برای آنچه که برای من و سایر اساتید رخ داده است، نسخه الگوریتمی “، در داخل، ، بیرون” است. با این حال، این ، ها می توانند به طور بی پایان توسط هوش مصنوعی به یک سیل مجازی در اینترنت تبدیل شوند.

ولوخ، در UCLA، در حال بررسی یکی از جنبه های این خطر در نحوه رسیدگی به افتراهای مبتنی بر هوش مصنوعی است.

همچنین نگر، آزادی بیان در مورد استفاده از سیستم های هوش مصنوعی وجود دارد. من اخیرا شهادت در مورد “فایل های توییتر” و شواهد فزاینده ای از سیستم جامع سانسور ،ت در لیست سیاه سایت ها و شهروندان.

یکی از آن تلاش‌های ،تی به نام «شاخص اطلاعات نادرست جه،»، سایت ولوخ را در فهرست سیاه قرار داد و آن را به ،وان یکی از 10 سایت خطرناک اطلاعات نادرست. اما آن سایت، دلیل، منبع اطلاعاتی محترمی برای دانشمندان آزادیخواه و محافظه کار است تا در مورد پرونده ها و اختلافات حقوقی بحث کنند.

برخی از رهبران دموکرات در مواجهه با مخالفت‌ها با تلاش‌های سانسور، بر استفاده بیشتر از سیستم‌های الگوریتمی برای محافظت از شهروندان در برابر انتخاب‌های بدشان یا حذف دیدگاه‌هایی که «اطلاعات نادرست» تلقی می‌شوند، فشار آورده‌اند.

در سال 2021، سناتور الیزابت وارن، D-M،، استدلال کرد که مردم به افراد و متخصصان من، در مورد وا،ن‌های COVID-19 گوش نمی‌دهند. در عوض، آنها با جستجوی آمازون و یافتن کتاب‌هایی از طریق «نظرات شکاکان» را می‌خواندند.پخش کنندگان برجسته اطلاعات نادرست” او خواستار استفاده از الگوریتم های روشنگرانه برای دور ، شهروندان از تأثیرات بد شد.

برخی از این تلاش‌ها حتی اگر روایت‌های ،تی را تضعیف کنند، داستان‌های دقیق را به ،وان اطلاعات نادرست دربرمی‌گیرند.

استفاده از هوش مصنوعی و الگوریتم ها می تواند به سانسور یک پتینه نادرست از علم و عینیت بدهد. حتی اگر مردم بتوانند مانند مورد من ثابت کنند که یک داستان نادرست است، شرکت‌ها می‌توانند «سرزنش آن را به گردن ربات بیندازند» و فقط به سیستم قول تغییراتی بدهند.

این فناوری بین ،، که حقایق را چارچوب بندی می کنند و ،، که قاب می شوند، بافر ایجاد می کند. این برنامه‌ها حتی می‌توانند، مانند مورد من، اطلاعات نادرستی را که برای مبارزه با آنها استخدام شده‌اند، منتشر کنند.

جاناتان تورلی، عضو هیئت مشارکت کنندگان USA TODAY، استاد شاپیرو حقوق منافع عمومی در دانشگاه جورج واشنگتن است. او را در توییتر دنبال کنید @JonathanTurley




منبع: https://jonathanturley.org/2023/04/06/defamed-by-chatgpt-my-own-bizarre-experience-with-artificiality-of-artificial-intelligence/