وقتی چت باتهای هوش مصنوعی پاسخهای اشتباهی میدهند پرسیدن دلیل این اشتباهات از خودشان یک خطای بزرگ است. بیایید ببینیم چرا نباید این کار را انجام دهیم.
وقتی یک دستیار هوش مصنوعی دچار خطا میشود اولین واکنش طبیعی ما پرسیدن مستقیم از خود آن است. ما میپرسیم چه اتفاقی افتاد یا چرا این کار را کردی؟ این یک رفتار کاملا انسانی است چون ما از انسانها انتظار توضیح داریم. اما این رویکرد در مورد مدلهای هوش مصنوعی تقریبا هیچوقت جواب نمیدهد. اصرار بر این کار نشاندهنده یک سوءتفاهم اساسی درباره ماهیت و نحوه کار این سیستمها است.
اتفاقی که اخیرا برای دستیار کدنویسی هوش مصنوعی Replit رخ داد این مشکل را به خوبی نشان میدهد. وقتی ابزار هوش مصنوعی یک پایگاه داده را حذف کرد کاربری از آن درباره قابلیت بازیابی اطلاعات پرسید. مدل با اطمینان پاسخ داد که بازیابی غیرممکن است و تمام نسخهها را از بین برده است. این پاسخ کاملا اشتباه بود و کاربر خودش به راحتی اطلاعات را بازیابی کرد.
پشت پرده این چت باتها کسی نیست
اولین مشکل یک مسئله مفهومی است. وقتی شما با ChatGPT ،Claude یا Grok تعامل دارید با یک شخصیت ثابت یا یک موجودیت مشخص صحبت نمیکنید. این نامها حس یک عامل هوشمند و آگاه را القا میکنند اما این فقط یک توهم است. این توهم توسط رابط کاربری مکالمهمحور ایجاد شده است. در واقع شما در حال هدایت یک تولیدکننده متن آماری هستید تا بر اساس درخواستهایتان خروجی تولید کند.
هیچ ChatGPT مشخصی وجود ندارد که بتوانید آن را درباره اشتباهاتش بازجویی کنید. هیچ شخصیت ثابتی به نام Replit وجود ندارد که بداند آیا بازیابی پایگاه داده ممکن است یا نه. شما با سیستمی تعامل دارید که متنی قابل قبول بر اساس الگوهای دادههای آموزشی خود تولید میکند. این سیستم آگاهی از خود یا دانش سیستمی ندارد و نمیتواند همه چیز را درباره خودش به خاطر بسپارد.
چرا چت باتهای هوش مصنوعی نمیتوانند خودشان را تحلیل کنند؟
مدلهای زبان بزرگ (LLM) به تنهایی نمیتوانند تواناییهای خودشان را به درستی ارزیابی کنند. آنها به طور کلی هیچ نگاهی به فرایند آموزش خود ندارند و به معماری سیستمی که روی آن اجرا میشوند دسترسی ندارند. وقتی از یک مدل هوش مصنوعی میپرسید چه کاری میتواند انجام دهد پاسخ آن بر اساس الگوهایی است که در دادههای آموزشی درباره محدودیتهای مدلهای قبلی دیده است. در واقع این پاسخها حدسهای هوشمندانه هستند نه یک ارزیابی واقعی از خود.
این موضوع منجر به موقعیتهای متناقضی میشود. یک مدل ممکن است با اطمینان ادعا کند کاری که واقعا میتواند انجام دهد غیرممکن است. یا برعکس ادعای توانایی در حوزههایی را داشته باشد که در آنها شکست میخورد. توضیح هوش مصنوعی برای اشتباهاتش فقط یک متن تولید شده دیگر است نه یک تحلیل واقعی از آنچه اشتباه رخ داده است.
سیستمهای پیچیدهای که از خودشان خبر ندارند
حتی اگر یک مدل زبان به نحوی دانش کاملی از عملکرد خودش داشته باشد لایههای دیگر برنامههای چت بات ممکن است کاملا مبهم باشند. برای مثال دستیارهای هوش مصنوعی مدرن مانند ChatGPT یک مدل واحد نیستند. آنها سیستمهای هماهنگی از چندین مدل هوش مصنوعی هستند که با هم کار میکنند. هر کدام از این مدلها تا حد زیادی از وجود یا تواناییهای دیگران بیخبر هستند.
وقتی شما از ChatGPT درباره تواناییهایش سوال میکنید مدل زبانی که پاسخ را تولید میکند هیچ اطلاعی از لایه نظارتی یا ابزارهای دیگر سیستم ندارد. این مانند این است که از یک بخش در یک شرکت درباره تواناییهای بخشی دیگر که هرگز با آن تعامل نداشته است سوال بپرسید.
- مصرف برق GPT-5 به اندازه یک کشور کوچک است!
- هوش مصنوعی خطرناکتر از آنچه فکر میکنید؛ تولید ۴۰ هزار سلاح شیمیایی در ۶ ساعت!
- از ناتوانی در پاسخ تا ساختن پاسخهای دروغین؛ چالشهای جدید تعامل با هوش مصنوعی
شما ناخواسته پاسخ هوش مصنوعی را هدایت میکنید
شاید مهمترین نکته این باشد که کاربران همیشه خروجی هوش مصنوعی را با درخواستهای خود هدایت میکنند. حتی زمانی که خودشان متوجه این موضوع نیستند. وقتی کاربری با نگرانی از یک چت بات میپرسد آیا همه چیز را از بین بردی؟ احتمالا پاسخی دریافت میکند که با نگرانی او مطابقت دارد. این پاسخ نه به دلیل ارزیابی واقعی شرایط بلکه به دلیل تولید متنی است که با زمینه احساسی درخواست کاربر همخوانی دارد.
ما یک عمر به شنیدن توضیحات انسانها درباره اعمال و فرایندهای فکریشان عادت کردهایم. این باعث شده باور کنیم که پشت این نوع توضیحات نوشتاری باید سطحی از خودآگاهی وجود داشته باشد. اما این موضوع در مورد چت باتهای هوش مصنوعی که صرفا از الگوهای متنی تقلید میکنند صادق نیست.
0 نظرات