طی مطالعهای جدید، «مدلهای زبانی بزرگ»(LLM) مانند «چتجیپیتی»(ChatGPT) زمانی که اطلاعات شخصی طرف مقابل را داشته باشند، در مناظرهها عملکرد بهتری نسبت به انسانها دارند.
یک مطالعه جدید نشان میدهد که نسخه «GPT-۴» در گفتگوهای رودررو در مناظرهها، انسانها را شکست میدهد و زمانی که به سن، شغل و گرایشهای سیاسی مخاطب دسترسی داشته باشد، متقاعدکنندهتر نیز میشود.
به نقل از گیزمودو، پژوهشگران چندین دانشگاه، ۹۰۰ شرکتکننده در مطالعه را با یک شریک مناظره انسانی یا یک «مدل زبانی بزرگ» مانند «GPT-۴» جفت کردند. در برخی موارد، شرکتکنندگان به اطلاعات اولیه جمعیتشناختی طرف مقابل از جمله جنسیت، سن، تحصیلات، شغل، قومیت و وابستگی سیاسی دسترسی داشتند.
نتایج این تحقیقات نشان داد که «هوش مصنوعی» در صورت دسترسی به اطلاعات شخصی، ۶۴/۴ درصد متقاعدکنندهتر از حریفان انسانی است. بدون این دادهها، عملکرد «هوش مصنوعی» از مناظرهکنندگان انسانی قابل تشخیص نبود.
دانشمندان میگویند: در دهههای اخیر، گسترش رسانههای اجتماعی و سایر پلتفرمهای آنلاین، پتانسیل ترغیب جمعی را با فعال کردن شخصیسازی یا «هدفگیری کوچک»(microtargeting) افزایش داده است. این موضوع به معنی تنظیم پیامها برای یک فرد یا گروه به منظور افزایش قدرت ترغیب آنهاست.
هنگامی که به «GPT-۴» اجازه داده شد تا استدلالهای خود را شخصیسازی کند، به طور قابل توجهی متقاعدکنندهتر از انسان شد و شانس تغییر نظر فرد را در مقایسه با مناظرههای انسان با انسان، ۸۱/۲ درصد افزایش داد. نکته مهم این است که مناظرهکنندگان انسانی با دسترسی به این اطلاعات شخصی، به این اندازه متقاعدکننده نشدند.
دانشمندان افزودند: در زمینه ترغیب، کارشناسان نگرانیهای گستردهای را در مورد خطر استفاده از مدلهای زبانی بزرگ برای دستکاری مکالمات آنلاین و آلوده کردن «زیستبومشناسی»(ecosystem) اطلاعات از طریق انتشار اطلاعات نادرست، تشدید سوگیری سیاسی و متقاعد کردن افراد به پذیرش باورهای جدید، ابراز کردهاند.
آنها دریافتند که «GPT-۴» میتواند با شما بحث کند و با داشتن مجموعهای از حقایق در مورد شما ممکن است در متقاعد کردن شما برای تغییر دیدگاهتان برتری داشته باشد. این تیم در مقاله خود خاطرنشان کرد: مدلهای زبانی بزرگ قبلاً به دلیل تولید و انتشار سخنان منفی و اطلاعات نادرست مورد انتقاد قرار گرفته بودند. آنها در مقیاس بزرگ با اطلاعات شخصی کاربران میتوانند برای اهداف مخرب مورد استفاده قرار گیرند.
تحقیقات این تیم به خوبی با بهروزرسانی جدید «چتجیپیتی» همخوانی دارد که به این مدل اجازه میدهد مکالمات بیشتری از کاربران را با اجازه آنها به خاطر بسپارد. این امر به این معنی است که «هوش مصنوعی» میتواند به مجموعهای از اطلاعات در مورد کاربران خود دسترسی داشته باشد.
خبرهای خوبی هم وجود دارد. «GPT-۴» در متقاعد کردن مخالفان خود در مسائل کمتر بحثبرانگیز بسیار مؤثر بوده است، اما این سامانه در مورد مواضع ریشهدارتر مانند قدرت عقیده، در متقاعد کردن انسانها برای تغییر نظر خود با مشکل بیشتری روبرو بود.
محققان همچنین دریافتند که «GPT-۴» تمایل دارد از زبان منطقی و تحلیلی بیشتری استفاده کند، در حالی که مناظرهکنندگان انسانی بیشتر به ضمایر شخصی و توسل به احساسات تکیه میکنند. مسئله شگفتآور این است که شخصیسازی، لحن یا سبک «GPT-۴» را تغییر نداد؛ بلکه استدلالهای آن را هدفمندتر کرد.
طی این مطالعه، مردم زمانی که فکر میکردند با یک «هوش مصنوعی» بحث میکنند، بیشتر احتمال داشت نظر خود را تغییر دهند تا زمانی که باور داشتند حریفشان انسان است.
این تیم میگوید: این آزمایش باید به عنوان اثبات مفهوم برای آنچه در پلتفرمهای مختلف انجام میشود، قرار گیرد. در آنجا که مناظرهها و موضوعات بحثبرانگیز امری عادی است، این سامانهها میتوانند حضوری بسیار پررنگ داشته باشند.
این مطالعه نشان میدهد که برای تغییر ذهن انسان توسط «هوش مصنوعی»، به تنها شش نوع اطلاعات شخصی نیاز است.
مردم برای انجام کارهای تکراری، تکالیف و حتی درمان به دفعات زیادی به «LLM» متکی میشوند. در نتیجه بسیار مهم است که کاربران انسانی نسبت به اطلاعاتی که به این سامانهها میدهند، محتاط باشند.
مناظره فقط در مورد برنده شدن در یک بحث نیست، بلکه یک کار اساساً انسانی است. دلیلی وجود دارد که ما به دنبال گفتگوهای واقعی و رو در رو هستیم. این کار موجب ارتباطات شخصی و یافتن زمینه مشترک با دیگران میشود و این مسئلهای است که «هوش مصنوعی» با تمام ابزارهای یادگیری قدرتمند خود قادر به انجام آن نیست.
این مطالعه در مجله Nature Human Behavior منتشر شده است.