اینترنت پر از نظرات جعلی و دروغین است، آیا هوش مصنوعی ممکن است که اوضاع را بدتر از وضعیت حال خواهد کرد؟
برخی از محققان و گروههای نظارتی میگویند ظهور ابزارهای هوش مصنوعی تولیدکننده که به افراد اجازه میدهند بهطور مؤثر نظرات آنلاین جدید و دقیق تولید کنند، تجار، ارائهدهندگان خدمات و مصرفکنندگان را در وضعیت ناشناختهای قرار داده است.
نظرات جعلی مدتهاست که بسیاری از وبسایتهای محبوب مصرفکننده، مانند آمازون و یلپ را تحت تأثیر قرار داده است. این نظرات معمولاً در گروههای خصوصی رسانههای اجتماعی بین واسطههای نظرات جعلی و کسبوکارهایی که مایل به پرداخت هستند، خرید و فروش میشوند. گاهی اوقات، چنین نظراتی توسط کسبوکارهایی آغاز میشود که به مشتریان تشویقهایی مانند کارتهای هدیه برای بازخورد مثبت ارائه میدهند.
اما ابزارهای تولید متن مبتنی بر هوش مصنوعی، که توسط ChatGPT اوپنای آی محبوب شدهاند، به کلاهبرداران این امکان را میدهند که نظرات را سریعتر و با حجم بیشتری تولید کنند.
این عمل فریبکارانه، که در ایالات متحده غیرقانونی است، در طول سال انجام میشود اما در فصل خرید تعطیلات به مشکل بزرگتری برای مصرفکنندگان تبدیل میشود، زمانی که بسیاری از مردم به نظرات برای کمک به خرید هدایا تکیه میکنند.
نظرات تولیدشده توسط هوش مصنوعی در کجا ظاهر میشوند؟
نظرات جعلی در صنایع مختلفی از جمله تجارت الکترونیک، اقامتگاهها و رستورانها، همچنین خدماتی مانند تعمیرات خانگی، مراقبتهای پزشکی و درسهای پیانو یافت میشود.
شرکت Transparency Company، که از نرمافزار برای شناسایی نظرات جعلی استفاده میکند، گفت که از نیمه سال ۲۰۲۳ شروع به مشاهده نظرات تولیدشده توسط هوش مصنوعی در تعداد زیاد کرده است و این تعداد از آن زمان افزایش یافته است.
برای گزارشی که این ماه منتشر شد، Transparency Company ۷۳ میلیون نظر را در سه بخش: خدمات خانگی، حقوقی و پزشکی تجزیه و تحلیل کرد. نزدیک به ۱۴ درصد از این نظرات احتمالاً جعلی بودند و این شرکت “درجه بالایی از اطمینان” داشت که ۲.۳ میلیون نظر بهطور جزئی یا کامل تولیدشده توسط هوش مصنوعی بوده است.
“این واقعاً ابزار بسیار خوبی برای این کلاهبرداران نظرات است.” موری بلکمن، سرمایهگذار و مشاور استارتاپهای فناوری، که کار Transparency Company را بررسی کرده و قرار است از اول ژانویه رهبری این سازمان را بر عهده بگیرد، گفت.
در آگوست، شرکت نرمافزاری DoubleVerify گفت که شاهد “افزایش قابل توجهی” در برنامههای تلفن همراه و تلویزیونهای هوشمند با نظراتی که توسط هوش مصنوعی تولید شده بودند، بود. این نظرات معمولاً برای فریب مشتریان به نصب برنامههایی که میتوانند دستگاهها را ربوده یا تبلیغات دائمی اجرا کنند، استفاده میشدند.
در ماه بعد، کمیسیون تجارت فدرال (FTC) از شرکتی که ابزار نوشتن هوش مصنوعی و تولید محتوای Rytr را ارائه میدهد، شکایت کرد و آن را به ارائه خدماتی متهم کرد که میتوانند بازار را با نظرات جعلی آلوده کنند.
FTC که امسال فروش یا خرید نظرات جعلی را ممنوع اعلام کرد، گفت که برخی از مشترکین Rytr از این ابزار برای تولید صدها و شاید هزاران نظر برای شرکتهای تعمیر درب گاراژ، فروشندگان کیفهای دستی “تقلبی” و سایر کسبوکارها استفاده کردهاند.
احتمالاً در سایتهای آنلاین برجسته نیز وجود دارد
مکس اسپرو، مدیر عامل شرکت تشخیص هوش مصنوعی Pangram Labs، گفت که نرمافزار مورد استفاده شرکت او تقریباً با اطمینان کامل تشخیص داده است که برخی از ارزیابیهای تولیدشده توسط هوش مصنوعی در آمازون به دلیل جزئیات زیاد و به نظر خوب فکرشده، در صدر نتایج جستجوی نظرات قرار گرفتهاند.
اما تعیین اینکه کدام نظرات جعلی یا واقعی هستند، میتواند چالشبرانگیز باشد. طرفهای خارجی ممکن است از آنجا که “به دادههای سیگنالی که الگوهای سوءاستفاده را نشان میدهند دسترسی ندارند”، در شناسایی ناکام بمانند، همانطور که آمازون گفته است.
Pangram Labs برای برخی از سایتهای آنلاین برجسته تشخیص انجام داده است، که اسپرو به دلیل توافقات عدم افشا نامی از آنها نبرد. او گفت که آمازون و یلپ را بهطور مستقل ارزیابی کرده است.
بسیاری از نظرات تولیدشده توسط هوش مصنوعی در یلپ به نظر میرسید که توسط افرادی منتشر شدهاند که سعی در انتشار نظرات کافی برای کسب نشان “الیت” داشتند، که به کاربران اطلاع میدهد که باید به محتوای آن اعتماد کنند.
این نشان دسترسی به رویدادهای انحصاری با صاحبان کسبوکار محلی را فراهم میکند. کلاهبرداران نیز میخواهند تا پروفایلهای یلپ آنها واقعیتر به نظر برسد، همانطور که کی دین، یک محقق جنایی سابق فدرال که گروه نظارتی Fake Review Watch را اداره میکند، گفت.
آیا نظرات تولیدشده توسط هوش مصنوعی لزوماً جعلی هستند؟
مطمئناً، فقط به این دلیل که یک نظر تولیدشده توسط هوش مصنوعی است، لزوماً به این معنا نیست که جعلی است. برخی از مصرفکنندگان ممکن است از ابزارهای هوش مصنوعی برای تولید محتوایی استفاده کنند که احساسات واقعی آنها را منعکس کند. برخی از غیرانگلیسیزبانها میگویند که به هوش مصنوعی مراجعه میکنند تا اطمینان حاصل کنند که از زبان دقیقی در نظراتی که مینویسند استفاده میکنند.
“این میتواند به نظرات کمک کند و آنها را اطلاعاتیتر کند اگر از نیت خوب ناشی شده باشد.” شیری هه، استاد بازاریابی دانشگاه ایالتی میشیگان، که به مطالعه نظرات جعلی پرداخته، گفت. او میگوید که پلتفرمهای فناوری باید بر الگوهای رفتاری بازیگران بد تمرکز کنند، که پلتفرمهای برجسته قبلاً این کار را انجام میدهند، به جای اینکه کاربران مشروع را از استفاده از ابزارهای هوش مصنوعی منصرف کنند.
اقداماتی که شرکتها انجام میدهند
شرکتهای برجسته در حال توسعه سیاستهایی برای نحوه تناسب محتوای تولیدشده توسط هوش مصنوعی با سیستمهای خود برای حذف نظرات جعلی یا سوءاستفاده هستند. برخی قبلاً از الگوریتمها و تیمهای تحقیقاتی برای شناسایی و حذف نظرات جعلی استفاده میکنند اما به کاربران اجازه میدهند که از هوش مصنوعی استفاده کنند.
سخنگویان آمازون و Trustpilot به عنوان مثال گفتند که به مشتریان اجازه میدهند نظراتی که با کمک هوش مصنوعی نوشته شدهاند را منتشر کنند، به شرطی که تجربه واقعی آنها را منعکس کند. یلپ رویکرد محتاطانهتری اتخاذ کرده و گفته است که دستورالعملهای آن نیاز دارند که نظر دهندگان متن خود را بنویسند.
“با افزایش اخیر پذیرش ابزارهای هوش مصنوعی توسط مصرفکنندگان، یلپ به طور قابل توجهی در روشهایی برای شناسایی و کاهش چنین محتوایی در پلتفرم خود سرمایهگذاری کرده است.” این شرکت در بیانیهای گفت.
Coalition for Trusted Reviews، که آمازون، Trustpilot، سایت بررسی شغلی Glassdoor و سایتهای مسافرتی Tripadvisor، Expedia و Booking.com سال گذشته راهاندازی کردند، گفت که اگرچه فریبکاران ممکن است از هوش مصنوعی به طور غیرقانونی استفاده کنند، اما این فناوری همچنین فرصتی برای مقابله با کسانی که به دنبال استفاده از نظرات برای گمراه کردن دیگران هستند، ارائه میدهد.
“با به اشتراکگذاری بهترین شیوهها و ارتقاء استانداردها، از جمله توسعه سیستمهای پیشرفته تشخیص هوش مصنوعی، میتوانیم از مصرفکنندگان محافظت کرده و یکپارچگی نظرات آنلاین را حفظ کنیم.” این گروه گفت.
قانون FTC که فروش نظرات جعلی را ممنوع میکند، که در اکتبر اجرایی شد، به آژانس اجازه میدهد که کسبوکارها و افراد را که به این عمل مشغول هستند، جریمه کند. شرکتهای فناوری که چنین نظراتی را میزبانی میکنند از جریمه معاف هستند زیرا طبق قانون ایالات متحده به خاطر محتوای منتشرشده توسط افراد خارجی در پلتفرمهای خود مسئول قانونی نیستند.
شرکتهای فناوری، از جمله آمازون، یلپ و گوگل، از واسطههای نظرات جعلی شکایت کردهاند که آنها را به فروش نظرات تقلبی در سایتهای خود متهم میکنند. این شرکتها میگویند که فناوری آنها بخش عظیمی از نظرات مشکوک و حسابهای مشکوک را مسدود یا حذف کرده است. با این حال، برخی از کارشناسان میگویند که آنها میتوانند بیشتر از این کار کنند.
“تلاشهای آنها تا کنون به هیچ وجه کافی نبوده است.” کی دین از Fake Review Watch گفت. “اگر این شرکتهای فناوری به طور جدی متعهد به حذف تقلب در نظرات در پلتفرمهای خود هستند، چرا من، یک فرد که بدون هیچ اتوماسیونی کار میکند، میتوانم در هر روز صدها یا حتی هزاران نظر جعلی پیدا کنم؟”
شناسایی نظرات تولیدشده توسط هوش مصنوعی جعلی
به گفته محققان، مصرفکنندگان میتوانند با دقت به چند علامت هشداردهنده احتمالی، نظرات جعلی را شناسایی کنند. نظرات بسیار هیجانانگیز یا منفی نشانههای هشدار هستند. اصطلاحاتی که نام کامل محصول یا شماره مدل را تکرار میکنند نیز میتوانند نشانههای احتمالی باشند.
در مورد هوش مصنوعی، تحقیقی که توسط بالاز کواچ، استاد رفتار سازمانی در دانشگاه ییل انجام شده، نشان داده است که مردم نمیتوانند تفاوت بین نظرات تولیدشده توسط هوش مصنوعی و نوشتههای انسان را تشخیص دهند. برخی از تشخیصدهندههای هوش مصنوعی نیز ممکن است با متنهای کوتاه، که در نظرات آنلاین رایج است، فریب بخورند.
با این حال، برخی “نشانههای هوش مصنوعی” وجود دارد که خریداران آنلاین و جویندگان خدمات باید به خاطر بسپارند. Pangram Labs میگوید نظرات نوشتهشده با هوش مصنوعی معمولاً طولانیتر، به شدت ساختار یافته و شامل “توصیفهای توخالی” مانند عبارات و ویژگیهای عمومی هستند. نوشتن همچنین تمایل دارد شامل کلیشههایی مانند “اولین چیزی که به ذهنم رسید” و “تغییر دهنده بازی” باشد.
اولین دیدگاه را شما بنویسید