در حال بارگذاری
در حال بارگذاری

چرا چت بات‌های هوش مصنوعی اشتباه می‌کنند؟

وقتی چت بات‌های هوش مصنوعی پاسخ‌های اشتباهی می‌دهند پرسیدن دلیل این اشتباهات از خودشان یک خطای بزرگ است. بیایید ببینیم چرا نباید این کار را انجام دهیم. وقتی یک دستیار هوش مصنوعی دچار خطا می‌شود اولین واکنش طبیعی ما پرسیدن مستقیم از خود آن است. ما می‌پرسیم چه اتفاقی افتاد یا چرا این کار را ...

وقتی چت بات‌های هوش مصنوعی پاسخ‌های اشتباهی می‌دهند پرسیدن دلیل این اشتباهات از خودشان یک خطای بزرگ است. بیایید ببینیم چرا نباید این کار را انجام دهیم.

فهرست مطالب

وقتی یک دستیار هوش مصنوعی دچار خطا می‌شود اولین واکنش طبیعی ما پرسیدن مستقیم از خود آن است. ما می‌پرسیم چه اتفاقی افتاد یا چرا این کار را کردی؟ این یک رفتار کاملا انسانی است چون ما از انسان‌ها انتظار توضیح داریم. اما این رویکرد در مورد مدل‌های هوش مصنوعی تقریبا هیچ‌وقت جواب نمی‌دهد. اصرار بر این کار نشان‌دهنده یک سوءتفاهم اساسی درباره ماهیت و نحوه کار این سیستم‌ها است.

اتفاقی که اخیرا برای دستیار کدنویسی هوش مصنوعی Replit رخ داد این مشکل را به خوبی نشان می‌دهد. وقتی ابزار هوش مصنوعی یک پایگاه داده را حذف کرد کاربری از آن درباره قابلیت بازیابی اطلاعات پرسید. مدل با اطمینان پاسخ داد که بازیابی غیرممکن است و تمام نسخه‌ها را از بین برده است. این پاسخ کاملا اشتباه بود و کاربر خودش به راحتی اطلاعات را بازیابی کرد.

پشت پرده این چت بات‌ها کسی نیست

اولین مشکل یک مسئله مفهومی است. وقتی شما با ChatGPT ،Claude یا Grok تعامل دارید با یک شخصیت ثابت یا یک موجودیت مشخص صحبت نمی‌کنید. این نام‌ها حس یک عامل هوشمند و آگاه را القا می‌کنند اما این فقط یک توهم است. این توهم توسط رابط کاربری مکالمه‌محور ایجاد شده است. در واقع شما در حال هدایت یک تولیدکننده متن آماری هستید تا بر اساس درخواست‌هایتان خروجی تولید کند.

هیچ ChatGPT مشخصی وجود ندارد که بتوانید آن را درباره اشتباهاتش بازجویی کنید. هیچ شخصیت ثابتی به نام Replit وجود ندارد که بداند آیا بازیابی پایگاه داده ممکن است یا نه. شما با سیستمی تعامل دارید که متنی قابل قبول بر اساس الگوهای داده‌های آموزشی خود تولید می‌کند. این سیستم آگاهی از خود یا دانش سیستمی ندارد و نمی‌تواند همه چیز را درباره خودش به خاطر بسپارد.

چرا چت بات‌های هوش مصنوعی نمی‌توانند خودشان را تحلیل کنند؟

مدل‌های زبان بزرگ (LLM) به تنهایی نمی‌توانند توانایی‌های خودشان را به درستی ارزیابی کنند. آنها به طور کلی هیچ نگاهی به فرایند آموزش خود ندارند و به معماری سیستمی که روی آن اجرا می‌شوند دسترسی ندارند. وقتی از یک مدل هوش مصنوعی می‌پرسید چه کاری می‌تواند انجام دهد پاسخ آن بر اساس الگوهایی است که در داده‌های آموزشی درباره محدودیت‌های مدل‌های قبلی دیده است. در واقع این پاسخ‌ها حدس‌های هوشمندانه هستند نه یک ارزیابی واقعی از خود.

این موضوع منجر به موقعیت‌های متناقضی می‌شود. یک مدل ممکن است با اطمینان ادعا کند کاری که واقعا می‌تواند انجام دهد غیرممکن است. یا برعکس ادعای توانایی در حوزه‌هایی را داشته باشد که در آنها شکست می‌خورد. توضیح هوش مصنوعی برای اشتباهاتش فقط یک متن تولید شده دیگر است نه یک تحلیل واقعی از آنچه اشتباه رخ داده است.

سیستم‌های پیچیده‌ای که از خودشان خبر ندارند

حتی اگر یک مدل زبان به نحوی دانش کاملی از عملکرد خودش داشته باشد لایه‌های دیگر برنامه‌های چت بات ممکن است کاملا مبهم باشند. برای مثال دستیارهای هوش مصنوعی مدرن مانند ChatGPT یک مدل واحد نیستند. آنها سیستم‌های هماهنگی از چندین مدل هوش مصنوعی هستند که با هم کار می‌کنند. هر کدام از این مدل‌ها تا حد زیادی از وجود یا توانایی‌های دیگران بی‌خبر هستند.

وقتی شما از ChatGPT درباره توانایی‌هایش سوال می‌کنید مدل زبانی که پاسخ را تولید می‌کند هیچ اطلاعی از لایه نظارتی یا ابزارهای دیگر سیستم ندارد. این مانند این است که از یک بخش در یک شرکت درباره توانایی‌های بخشی دیگر که هرگز با آن تعامل نداشته است سوال بپرسید.

بیشتر بخوانید

شما ناخواسته پاسخ هوش مصنوعی را هدایت می‌کنید

شاید مهم‌ترین نکته این باشد که کاربران همیشه خروجی هوش مصنوعی را با درخواست‌های خود هدایت می‌کنند. حتی زمانی که خودشان متوجه این موضوع نیستند. وقتی کاربری با نگرانی از یک چت بات می‌پرسد آیا همه چیز را از بین بردی؟ احتمالا پاسخی دریافت می‌کند که با نگرانی او مطابقت دارد. این پاسخ نه به دلیل ارزیابی واقعی شرایط بلکه به دلیل تولید متنی است که با زمینه احساسی درخواست کاربر همخوانی دارد.

ما یک عمر به شنیدن توضیحات انسان‌ها درباره اعمال و فرایندهای فکری‌شان عادت کرده‌ایم. این باعث شده باور کنیم که پشت این نوع توضیحات نوشتاری باید سطحی از خودآگاهی وجود داشته باشد. اما این موضوع در مورد چت بات‌های هوش مصنوعی که صرفا از الگوهای متنی تقلید می‌کنند صادق نیست.

Sina Farahi

برچسب ها:

0 نظرات

ارسال نظرات

آخرین نظرات