آیا ادعاهای مبنی بر با ادراک بودن مودل زبانی بزرگ گوگل درست است؟
خاری جانسن، مجله وایرد، ۱۴ جون ۲۰۲۲
بلیک لیمیوین، محقق هوش مصنوعی گوگل، طی این هفته گذشته با ادعای جنجالی مبنی بر اینکه لامدا (LaMDA) مودل زبانی بزرگ گوگل که برای گفتگو با مردم طراحی شده، دارای ادراک است، از سمت اش برکنار شد. نظر به گزارش واشنگتن پست، لیمیوین تقاضای نمایش عمومی لامدا را کرده است. لیمیوین میگوید که لامدا عقاید شبیه یک فرد مسیحی را دارد و لامدا به او گفته که روح دارد.
چشم انداز هوش مصنوعی که هوشی فراتر از انسان دارد بصورت مداوم توسط افرادی نظیر ایلان ماسک و سام التمن مدیر عامل اوپن ا.ای به بحث گرفته میشود و همزمان تلاش ها برای آموزش مودل های زبانی توسط کمپنی های مانند: گوگل، مایکروسافت و انویدیا در سال های اخیر جریان دارد.
بحث روی اینکه آیا مودل های زبانی با ادراک هستند به تاریخ ایجاد اولین چتبات بنام الیزا در سال ۱۹۶۰ میلادی بر میگردد. با افزایش آموزش عمیق و افزایش اطلاعات آموزشی، امروزه مودل های زبانی متن های را تولید میکنند که شبیه به متن ساخته شده توسط انسان ها است.
پیشرفت های اخیر نمایانگر آن است که مودل های زبانی یکی از اجزای بنیادی برای هوش مصنوعی عمومی تلقی میشود. جای که نرم افزار ها قادر خواهند بود رفتاری مانند انسان ها داشته باشند و در میان خود به تبادله دانش بپردازند.
تیمنت گیبرو دستیار سابق تیم هوش مصنوعی اخلاقی گوگل بیان میکند که بلیک لیمیوین قربانی یک حلقه اعتیاد دروغین شده است، و ادعای او در مورد هوش مصنوعی با ادراک موفق نبوده، رسانه ها، محققین و سرمایه گذاران زیادی که مبتلا به حلقه اعتیاد دروغین شده اند، به ابر هوش یا ماشین های صاحب روح باور دارند.
گیبرو در دسامبر سال ۲۰۲۰ بعد از اینکه در یک مقاله تحقیقی جنجالی در مورد خطر های مودل زبانی لامدا اظهار نظر کرد، از این شرکت اخراج شد.
در این مقاله تحقیقی، گیبرو خاطر نشان ساخت که سیستم های شبیه لامدا توانایی تکرار وظایفی را دارند که برایشان سپرده شده، مانند طوطی که کلمات را تکرار میکند. با افزایش اطلاعات مودل های زبانی بیشتر برای مردم قانع کننده خواهد بود که پیشرفت های این سیستم واقعی هست و سیستم ها دارای هوش ادراک انسانی شده اند. در واقع میتوان گفت که این نمایشات حتی برای افرادی نظیر لیمیوین نیز قانع کننده بود.
گیادا پستیلی، اخلاق شناس در هیوجینگ فیس، شرکتی که متمرکز روی مودل های زبانی است، بیان میکند که گودال فاحشی میان نحوه عملکرد هوش مصنوعی خیالی و هوش مصنوعی فعلی وجود دارد. این هوش مصنوعی خیالی دلچسپ بنظر میرسد اما در عین حال یک دروغ بزرگ برای بیشتر کردن فروشات کمپنی های بزرگ است.
دیوید برین می گوید که ادعا های واقع شده در مورد لامدا به نظر میرسد که یک حالت گذار باشد، جای که ما بیشتر و بیشتر میان مرز های حقیقی و علمی تخیلی سرگردان میشویم.
ادعا های واقع شده در مورد گوگل این سوال را مطرح میکند که آیا موجودات دیجیتالی میتوانند احساسات یا ادراک داشته باشند؟
در نظر گرفتن این که هوش مصنوعی میتواند هوشیاری داشته باشد، مانند این است که بگویید یک عروسک که برای گریه کردن طراحی شده، واقعا غمگین بنظر برسد.
چویی میگوید: «من هیچ محققی در زمینه هوش مصنوعی نمی شناسم که به با درک بودن هوش مصنوعی اعتقاد داشته باشد، بعضی از افراد به فال تاروت عقیده دارند و بعضی دیگر فکر میکنند که سیاره آنها احساسات خودش را دارد، اما این که هوش مصنوعی با درک چقدر میان مردم شایع است، هنوز چیزی نمیدانیم».
هر قدر مردم بیشتر به وجود هوش مصنوعی انسان گونه اعتقاد کنند، همان قدر از موضوعاتی دور میشوند که هوش مصنوعی را امروزه تهدید میکنند.
لینک مقاله اصلی
https://www.wired.com/story/lamda-sentient-ai-bias-google-blake-lemoine/
