مقدمه
در چند ماه گذشته، چت رباتهای هوش مصنوعی مانند چت جی پی تی توجه جهانیان را به دلیل توانایی آنها در مکالمه به روشی شبیه انسان در مورد هر موضوعی به خود جلب کرده اند. اما آنها با یک اشکال جدی روبرو هستند: آنها می توانند اطلاعات نادرست قانع کننده را به راحتی ارائه دهند و آنها را به منابع غیر قابل اعتماد اطلاعات واقعی و منابع بالقوه تبدیل کنند.
“توهمات” – یک اصطلاح بارگذاری شده در هوش مصنوعی
چت رباتهای هوش مصنوعی مانند چت جی پی تی برای تولید پاسخهای خود به نوعی از هوش مصنوعی به نام «مدل زبان بزرگ» (LLM) متکی هستند. LLM یک برنامه کامپیوتری است که بر روی میلیونها منبع متنی آموزش دیده است که میتواند متن «زبان طبیعی» را بخواند و تولید کند – زبانی که انسان به طور طبیعی مینویسد یا صحبت میکند. متاسفانه آنها نیز ممکن است اشتباه کنند.
در ادبیات دانشگاهی، محققان هوش مصنوعی اغلب این اشتباهات را “توهم” می نامند. اما این برچسب با تبدیل شدن موضوع به جریان اصلی بحثبرانگیز شده است، زیرا برخی افراد احساس میکنند که مدلهای هوش مصنوعی شبیه به انسان هستند. یا به آنها اختیار میدهد (پیشنهاد میکند که میتوانند انتخابهای خود را انجام دهند) در شرایطی که نباید به طور ضمنی به آن اشاره کرد.
با این حال، هوش مصنوعی آنقدر جدید است که برای توضیح این مفاهیم بسیار فنی برای عموم به استعاره هایی نیاز داریم که از ایده های موجود وام گرفته شده باشند. در این راستا، ما احساس می کنیم که اصطلاح “confabulation”، اگرچه به طور مشابه ناقص است، استعاره ای بهتر از “توهم” است. در روانشناسی انسان، یک “confabulation”زمانی اتفاق می افتد که حافظه شخصی دچار شکاف شود و مغز به طور قانع کننده ای بقیه را بدون قصد فریب دیگران پر می کند. چت جی پی تی نمی کند مانند مغز انسان کار کنید، اما اصطلاح “confabulation” مسلماً به عنوان یک استعاره بهتر عمل می کند زیرا همانطور که در زیر به بررسی آن خواهیم پرداخت، یک اصل خلاقانه پر کردن شکاف در کار وجود دارد.
مشکل confabulation
زمانی که یک ربات هوش مصنوعی اطلاعات نادرستی تولید می کند که به طور بالقوه می تواند گمراه کننده، اطلاعات نادرست یا بدنام باشد، مشکل بزرگی است. اخیراً واشنگتن پست گزارش شده است در مورد یک استاد حقوق که متوجه شد چت جی پی تی او را در لیستی از دانشمندان حقوقی قرار داده است که شخصی را مورد آزار جنسی قرار داده اند. اما هرگز اتفاق نیفتاد – چت جی پی تی آن را ساخت. همان روز، ارس گزارش شده است در مورد یک شهردار استرالیایی که ظاهراً متوجه شد که چت جی پی تی ادعا کرده است که به رشوه خواری محکوم شده و به زندان محکوم شده است، که یک ساختگی کامل است.
مدت کوتاهی پس از راه اندازی چت جی پی تی، مردم شروع به کار کردند اعلام می کند انتهای موتور جستجو با این حال، در همان زمان، نمونههای زیادی از مخدوشهای چت جی پی تی در رسانههای اجتماعی منتشر شد. ربات هوش مصنوعی اختراع کرده است کتاب ها ومطالعات که وجود ندارند،انتشارات که اساتید ننوشتند، جعلی مقالات دانشگاهی، نادرست استنادات قانونی، وجود ندارد ویژگی های سیستم لینوکس، غیر واقعی طلسم های خرده فروشی، و جزئیات فنی که معنی ندارد
و با وجود این، علیرغم تمایل چت جی پی تی به فیلینگ گاه به گاه، بر خلاف شهود، مقاومت آن در برابر ادغام دلیلی است که ما حتی امروز در مورد آن صحبت می کنیم. برخی از کارشناسان خاطرنشان می کنند که چت جی پی تی از نظر فنی یک پیشرفت نسبت به وانیلی GPT-3 (مدل قبلی خود) بود، زیرا می تواند از پاسخ دادن به برخی سوالات خودداری کند یا زمانی که پاسخ های آن ممکن است دقیق نباشد به شما اطلاع دهد.
رایلی گود ساید، متخصص در مدلهای زبان بزرگ که بهعنوان مهندس سریعالسیر کارکنان در Scale AI کار میکند، میگوید: «یکی از عوامل اصلی موفقیت چت جی پی تی این است که میتواند بهاندازه کافی ترکیببندی را سرکوب کند تا برای بسیاری از سوالات رایج غیر قابل توجه باشد. در مقایسه با پیشینیان خود، چت جی پی تی به طور قابل توجهی کمتر مستعد ساختن چیزها است.
اگر به عنوان یک ابزار طوفان فکری استفاده شود، جهشهای منطقی چت جی پی تی ممکن است منجر به پیشرفتهای خلاقانه شود. اما وقتی از چت جی پی تی به عنوان یک مرجع واقعی استفاده می شود، می تواند آسیب واقعی ایجاد کند، و اوپن ای آی آن را می داند.
مدت زیادی پس از عرضه این مدل، سام آلتمن، مدیر عامل اوپن ای آی توییت کرد، “چت جی پی تی فوق العاده محدود است، اما در برخی چیزها به اندازه کافی خوب است تا تصور گمراه کننده ای از عظمت ایجاد کند. این اشتباه است که در حال حاضر برای هر چیز مهمی به آن اعتماد کنیم. این یک پیش نمایش از پیشرفت است؛ ما کارهای زیادی برای انجام دادن روی استحکام داریم. و راستی.” در یک بعد تویی تو نوشت: “خیلی چیزها را می داند، اما خطر این است که در بخش قابل توجهی از زمان اعتماد به نفس دارد و اشتباه می کند.”
نحوه عملکرد چت جی پی تی
برای درک اینکه چگونه یک مدل جی پی تی مانند چت جی پی تی یا بینگ چت با هم ترکیب می شود، باید بدانیم مدل های جی پی تی چگونه کار می کنند. در حالی که اوپن ای آی جزئیات فنی چت جی پی تی را منتشر نکرده است،بینگ چت، یا حتی GPT-4، ما به آن دسترسی داریم مقاله تحقیقاتی که پیشرو خود، GPT-3 را در سال 2020 معرفی کردند.
محققان با استفاده از فرآیندی به نام «یادگیری بدون نظارت»، مدلهای زبان بزرگی مانند GPT-3 و GPT-4 را میسازند (آموزش میدهند)، به این معنی که دادههایی که برای آموزش مدل استفاده میکنند، حاشیهنویسی یا برچسبگذاری خاصی ندارند. در طول این فرآیند، مدل به حجم وسیعی از متن (میلیونها کتاب، وبسایت، مقاله، شعر، رونوشت و منابع دیگر) تغذیه میشود و مکرراً سعی میکند کلمه بعدی را در هر دنباله کلمات پیشبینی کند. اگر پیشبینی مدل نزدیک به کلمه بعدی واقعی باشد، شبکه عصبی پارامترهای خود را بهروزرسانی میکند تا الگوهایی را که منجر به آن پیشبینی شده است، تقویت کند.
برعکس، اگر پیشبینی نادرست باشد، مدل پارامترهای خود را برای بهبود عملکرد خود تنظیم میکند و دوباره تلاش میکند. این فرایند آزمون و خطا، اگرچه تکنیکی به نام «انتشار پسانداز» است، به مدل اجازه میدهد تا از اشتباهات خود درس بگیرد و به تدریج پیشبینیهای خود را در طول فرآیند آموزش بهبود بخشد.
در نتیجه، GPT ارتباط آماری بین کلمات و مفاهیم مرتبط در مجموعه داده را می آموزد. برخی از افراد، مانند دانشمند ارشد OpenAI Ilya Sutskever، فکر می کنند که GPT مدل میکندحتی فراتر از آن بروید، نوعی مدل واقعیت داخلی را ایجاد می کنند تا بتوانند بهترین نشانه بعدی را با دقت بیشتری پیش بینی کنند، اما این ایده بحث برانگیز است. جزئیات دقیق اینکه چگونه مدلهای GPT به توکن بعدی در شبکههای عصبی خود میرسند هنوز نامشخص است.
در موج فعلی مدلهای GPT، این آموزش اصلی (اکنون اغلب «پیشآموزش» نامیده میشود) تنها یک بار اتفاق میافتد. پس از آن، افراد میتوانند از شبکه عصبی آموزشدیده در «حالت استنتاج» استفاده کنند، که به کاربران اجازه میدهد یک ورودی به شبکه آموزشدیده داده و نتیجه بگیرند. در طول استنتاج، توالی ورودی برای مدل GPT همیشه توسط یک انسان ارائه میشود و به آن «اعلان» میگویند. اعلان خروجی مدل را تعیین میکند، و تغییر دادن فرمان حتی اندکی میتواند بهطور چشمگیری چیزی را که مدل تولید میکند تغییر دهد.
به عنوان مثال، اگر از GPT-3 با “Mary had a” درخواست کنید، معمولا جمله را با “Little Lamb” تکمیل می کند. این به این دلیل است که احتمالاً هزاران نمونه از “مری یک بره کوچک داشت” در مجموعه داده های آموزشی GPT-3 وجود دارد که آن را به یک تکمیل معقول تبدیل می کند. اما اگر زمینه بیشتری را در دستور اضافه کنید، مانند «در بیمارستان، مری یک علامت داشت»، نتیجه تغییر میکند و کلماتی مانند «بچه» یا «مجموعه آزمایشها» را برمیگرداند.
اینجاست که همه چیز با چت جی پی تی کمی خنده دار می شود، زیرا به جای یک کار تکمیل متن مستقیم، به عنوان یک مکالمه با یک نماینده قاب می شود. در مورد چت جی پی تی، اعلان ورودی کل مکالمه ای است که با چت جی پی تی داشته اید، از اولین سوال یا بیانیه شما شروع می شود و شامل هر موردی می شود.دستورالعمل های خاص قبل از شروع گفتگوی شبیه سازی شده به چت جی پی تی ارائه شد. در طول مسیر، چت جی پی تی یک حافظه کوتاه مدت در حال اجرا (به نام “پنجره زمینه”) از هر چیزی که نوشته اید و شما نوشته اید نگه می دارد و وقتی با شما “صحبت می کند”، سعی می کند رونوشت مکالمه را به صورت متن کامل کند. -تکمیل کار
علاوه بر این، چت جی پی تی با وانیلی GPT-3 متفاوت است زیرا بر روی رونوشت مکالمات نوشته شده توسط انسان نیز آموزش دیده است. “ما یک مدل اولیه را با استفاده از تنظیم دقیق نظارت شده آموزش دادیم: مربیان هوش مصنوعی مکالماتی را ارائه کردند که در آن هر دو طرف بازی می کردند – کاربر و دستیار هوش مصنوعی.”OpenAI نوشت در صفحه انتشار اولیه چت جی پی تی خود. ما به مربیان اجازه دادیم تا به پیشنهادهای مدل نوشته شده دسترسی داشته باشند تا به آنها کمک کنیم تا پاسخ های خود را بنویسند.
چت جی پی تی همچنین با استفاده از تکنیکی به نام “یادگیری تقویتی از بازخورد انسانی” یا RLHF به شدت نسبت به GPT-3 تنظیم شده است، که در آن ارزیابیکنندگان انسانی پاسخهای چت جی پی تی را به ترتیب اولویت رتبهبندی میکنند، سپس آن اطلاعات را به مدل برمیگردانند. از طریق RLHF، OpenAI توانست هدف خودداری از پاسخگویی به بسیاری از سؤالاتی را که نمی تواند به طور قابل اعتماد به آنها پاسخ دهد، در مدل القا کند. این به چت جی پی تی اجازه می دهد تا پاسخ های منسجمی را با ترکیبات کمتر نسبت به مدل پایه تولید کند. اما نادرستی ها هنوز از بین می روند.
چرا چت جی پی تی confabulation است ؟
در اصل، هیچ چیز در مجموعه داده های خام مدل GPT وجود ندارد که واقعیت را از داستان جدا کند. این راهنمایی از
الف) رواج محتوای دقیق در مجموعه دادهها،
ب) تشخیص اطلاعات واقعی در نتایج توسط انسانها،
ج) راهنمایی یادگیری تقویتی از سوی انسانها که بر پاسخهای واقعی خاص تأکید دارد، میآید.
رفتار LLM ها هنوز یک حوزه فعال تحقیقاتی است. حتی محققانی که این مدلهای GPT را ایجاد کردهاند نیز هستند هنوز در حال کشف شگفت آور خاص از فناوری هایی که هیچ کس در ابتدای توسعه آنها پیش بینی نکرده بود. تواناییهای GPT برای انجام بسیاری از کارهای جالبی که اکنون میبینیم، مانند ترجمه زبان، برنامهنویسی و بازی شطرنج، در یک مقطع برای محققان شگفتانگیز بود (برای درک اولیه آن، GPT-2 2019 را بررسی کنید.مقاله تحقیقاتی و عبارت “غافلگیر کننده” را جستجو کنید).
بنابراین وقتی میپرسیم چرا چت جی پی تیبا هم ترکیب میشود، اینطور است دشوار برای مشخص کردن یک پاسخ فنی دقیق و از آنجایی که یک عنصر “جعبه سیاه” از وزن شبکه عصبی وجود دارد، پیش بینی خروجی دقیق آنها با توجه به یک دستور پیچیده بسیار دشوار (اگر نه غیرممکن) است. با این حال، ما چند چیز اساسی در مورد اینکه چرا confabulation اتفاق می افتد می دانیم.
کلید درک توانایی Confabulation چت جی پی تی درک نقش آن به عنوان یک ماشین پیش بینی است. هنگامی که چت جی پی تی با هم ترکیب میشود، به دنبال اطلاعات یا تحلیلهایی است که در مجموعه دادههای آن وجود ندارد و جاهای خالی را با کلماتی با صدای معقول پر میکند. چت جی پی تیبهخاطر حجم فوقالعادهای از دادههایی که باید با آن کار کند، بهویژه در ساختن چیزها خوب است، و توانایی آن در جمعآوری متن بسیار خوب به آن کمک میکند اطلاعات اشتباه را بهطور یکپارچه در متن اطراف قرار دهد.
Simon Willison گفت: “من فکر می کنم بهترین راه برای فکر کردن در مورد confabulation این است که در مورد ماهیت مدل های زبان بزرگ فکر کنید: تنها کاری که آنها می دانند چگونه انجام دهند این است که بهترین کلمه بعدی را بر اساس احتمال آماری در برابر مجموعه آموزشی خود انتخاب کنند.” ، یک توسعه دهنده نرم افزار که اغلب می نویسد در مورد موضوع
در یک مقاله 2021 سه نفر از محققان دانشگاه آکسفورد و OpenAI شناسایی کردند دو نوع عمده از دروغ هایی که ممکن است LLM هایی مانند چت جی پی تی ایجاد کنند. اولین مورد ناشی از منابع نادرست در مجموعه داده های آموزشی آن است، مانند تصورات غلط رایج (به عنوان مثال، “خوردن بوقلمون شما را خواب آلود می کند”). دومی ناشی از استنتاج در مورد موقعیت های خاص است که در مواد آموزشی آن (مجموعه داده) وجود ندارد. این تحت عنوان “توهم” فوق الذکر قرار می گیرد.
اینکه آیا مدل GPT حدس میزند یا خیر، بر اساس ویژگیای است که محققان هوش مصنوعی آن را «دما» مینامند، که اغلب به عنوان تنظیم «خلاقیت» شناخته میشود. اگر خلاقیت بالا باشد، مدل به طرز عجیبی حدس میزند. اگر پایین تنظیم شود، بر اساس مجموعه داده های خود، داده ها را به طور قطعی بیرون می دهد.
به تازگی، کارمند مایکروسافت میخائیل پاراخین، که در بینگ چت کار می کند،توییت کرد در مورد تمایل بینگ چت به توهم و دلایل آن. او نوشت: “این چیزی است که قبلاً سعی کردم توضیح دهم: توهم = خلاقیت.” سعی میکند با استفاده از تمام دادههایی که در اختیار دارد، بیشترین احتمال ادامه رشته را تولید کند. اغلب اوقات درست است. گاهی اوقات مردم هرگز ادامههایی مانند این تولید نکردهاند.
پاراخین گفت که آن جهش های خلاقانه وحشی چیزی است که LLM ها را جالب می کند. او نوشت: “شما می توانید توهمات را مهار کنید، و این فوق العاده خسته کننده است.” “[این] همیشه به “نمیدانم” پاسخ میدهد یا فقط آنچه را در نتایج جستجو وجود دارد میخواند (همچنین گاهی اوقات نادرست است). چیزی که از دست میرود لحن صدا است: در آن موقعیتها نباید آنقدر مطمئن به نظر برسد. ”
ایجاد تعادل بین خلاقیت و دقت در هنگام تنظیم دقیق مدل های زبان مانند چت جی پی تی یک چالش است. از یک طرف، توانایی ارائه پاسخهای خلاقانه چیزی است که ChatGPT را به ابزار قدرتمندی برای تولید ایدههای جدید یا رفع انسداد بلاک نویسنده تبدیل میکند. همچنین باعث میشود که مدلها صدای انسانتری داشته باشند. از سوی دیگر، دقت در منبع منبع زمانی که نوبت به تولید اطلاعات قابل اعتماد و پرهیز از سردرگمی میرسد، بسیار مهم است. یافتن تعادل مناسب بین این دو چالشی مداوم برای توسعه مدلهای زبانی است، اما برای تولید ابزاری مفید و قابل اعتماد ضروری است.
همچنین بحث فشرده سازی وجود دارد. در طول فرایند آموزش، GPT-3 پتابایت اطلاعات را در نظر گرفت، اما شبکه عصبی حاصل تنها کسری از اندازه آن است. در یک قطعه نیویورکر که به طور گسترده خوانده شده است، نویسنده تد چیانگ این را “JPEG تار وب” نامیده است. این بدان معناست که بخش بزرگی از دادههای آموزشی واقعی از بین میرود، اما GPT-3 آن را با یادگیری روابط بین مفاهیم جبران میکند که بعداً میتواند برای فرمولبندی مجدد جایگشتهای جدید این حقایق استفاده کند. مانند یک انسان با حافظه ای ناقص که بر اساس نحوه عملکرد یک چیز کار می کند، گاهی اوقات همه چیز را اشتباه می کند. و البته اگر جواب را نداند بهترین حدس خود را خواهد داد.
ما نمی توانیم نقش اعلان را در اشتباهات فراموش کنیم. از برخی جهات، چت جی پی تی یک آینه است: آنچه را که به آن تغذیه میکنید به شما باز می گرداند. اگر به آن دروغ بپردازید، تمایل دارد با شما موافق باشد و در همین راستا “فکر” کند. به همین دلیل است که هنگام تغییر سوژه یا تجربه پاسخ های ناخواسته، مهم است که با یک اعلان جدید شروع کنید. و چت جی پی تی احتمالاتی است، به این معنی که ماهیت آن تا حدی تصادفی است. حتی با همان اعلان، آنچه را که خروجی می دهد می تواند بین جلسات تغییر کند.
همه اینها منجر به یک نتیجه می شود، نتیجه ای که OpenAI با آن موافق است: چت جی پی تی همانطور که در حال حاضر طراحی شده است، منبع قابل اعتمادی از اطلاعات واقعی نیست و نمی توان به آن اعتماد کرد. دکتر مارگارت میچل، محقق و دانشمند ارشد اخلاق در شرکت هوش مصنوعی Hugging Face، میگوید: «چت جی پی تی برای برخی چیزها، مانند رفع انسداد بلاک نویسنده یا ارائه ایدههای خلاقانه، عالی است. “این ساخته نشده است که واقعی باشد و بنابراین واقعی نخواهد بود. به همین سادگی است.”
آیا فیبینگ قابل تعمیر است؟
اعتماد کورکورانه به نسلهای چت ربات هوش مصنوعی یک اشتباه است، اما ممکن است با بهبود فناوری اساسی تغییر کند. از زمان انتشار آن در نوامبر، چت جی پی تی قبلاً وجود داشته است چندین بار ارتقا یافته است و برخی ارتقاء ها شامل بهبودهایی در دقت و همچنین توانایی بهبود یافته برای امتناع از پاسخ دادن به سوالاتی است که پاسخ آنها را نمی داند.
بنابراین چگونه اوپن ای آی قصد دارد چت جی پی تی را دقیق تر کند؟ ما در چند ماه گذشته چندین بار در مورد این موضوع با OpenAI تماس گرفتیم و هیچ پاسخی دریافت نکردیم. اما میتوانیم سرنخهایی را از اسنادی که اوپن ای آی منتشر کرده است به دست آوریم گزارش های خبری در مورد تلاش های شرکت برای هدایت همسویی چت جی پی تی با کارکنان انسانی.
همانطور که قبلا ذکر شد، یکی از دلایل موفقیت چت جی پی تی به دلیل آموزش گسترده با استفاده از RLHF است. همانطور که OpenAI توضیح می دهد، “برای اینکه مدل های خود را ایمن تر، مفیدتر و همسو تر کنیم، از یک تکنیک موجود به نام یادگیری تقویتی از بازخورد انسانی (RLHF) استفاده می کنیم. در درخواست هایی که مشتریان ما به API ارسال می کنند، برچسب گذاران ما نمایش هایی از مطلوب ارائه می دهند. رفتار مدل و رتبه بندی چندین خروجی از مدل های ما. سپس از این داده ها برای تنظیم دقیق GPT-3 استفاده می کنیم.”
Sutskever از OpenAI معتقد است که آموزش اضافی از طریق RLHF می تواند مشکل توهم را برطرف کند. Sutskever در ادامه گفت: “من کاملاً امیدوار هستم که با بهبود این یادگیری تقویتی بعدی از گام بازخورد انسانی، بتوانیم به آن بیاموزیم که توهم نداشته باشد.”مصاحبه با فوربس اوایل این ماه
او ادامه داد:
روشی که ما امروز انجام می دهیم این است که افرادی را استخدام می کنیم تا به شبکه عصبی ما رفتار کنند و به چت جی پی تی رفتار کنند. شما فقط با آن تعامل می کنید، و از واکنش شما می بیند، اوه، این چیزی نیست که شما می خواستید. شما از خروجی آن راضی نیستید. بنابراین، خروجی خوب نبود و دفعه بعد باید کاری متفاوت انجام دهد. من فکر می کنم احتمال بسیار بالایی وجود دارد که این رویکرد بتواند توهمات را به طور کامل برطرف کند.
دیگران مخالفند. Yann LeCun، دانشمند ارشد هوش مصنوعی در Meta،معتقد است مشکلات توهم با نسل فعلی LLM که از معماری GPT استفاده می کنند حل نخواهد شد. اما یک رویکرد به سرعت در حال ظهور وجود دارد که ممکن است با معماری فعلی، دقت بسیار بیشتری را برای LLM ها به ارمغان بیاورد.
گود ساید گفت: «یکی از فعالترین روشهای تحقیق شده برای افزایش واقعیت در LLM، تقویت بازیابی – ارائه اسناد خارجی به مدل برای استفاده به عنوان منابع و زمینه پشتیبانی است.» او توضیح داد که با این تکنیک، محققان امیدوارند که به مدلها یاد بدهند که از موتورهای جستجوی خارجی مانند گوگل استفاده کنند، «همانطور که یک محقق انسانی ممکن است به منابع قابل اعتماد در پاسخهای خود استناد کنند و کمتر بر دانش واقعی غیرقابل اعتمادی که در طول آموزش مدلها آموختهاند، تکیه کنند».
بینگ چت و گوگل بارد این کار را از قبل با استفاده از جستجوهای وب انجام دهید، و به زودی، نسخه فعال مرورگر چت جی پی تی نیز همینطور خواهد بود. علاوه بر این،پلاگین های چت جی پی تی هدف این است که داده های آموزشی GPT-4 را با اطلاعاتی که از منابع خارجی بازیابی می کند، مانند وب و پایگاه داده های ساخته شده، تکمیل کنند. این تقویت شبیه به این است که چگونه انسانی با دسترسی به یک دایره المعارف از نظر واقعی دقیق تر از انسانی بدون دانشنامه است.
همچنین، ممکن است بتوان مدلی مانند GPT-4 را آموزش داد تا از زمان ساخت آن آگاه باشد و بر اساس آن تنظیم شود. میچل گفت: “کارهای عمیق تری وجود دارد که می توان انجام داد تا چت جی پی تی و موارد مشابه از ابتدا واقعی تر باشند، از جمله مدیریت داده های پیچیده تر و پیوند داده های آموزشی با امتیازهای “اعتماد”، با استفاده از روشی که بی شباهت به رتبه صفحه نیست. .. همچنین میتوان زمانی که مدل به پاسخ اطمینان کمتری داشت، تنظیم دقیقی انجام داد.
بنابراین، در حالی که چت جی پی تی در حال حاضر در حال حاضر به خاطر مجموعههای خود در آب داغ است، ممکن است راهی برای خروج وجود داشته باشد، و به خاطر دنیایی که شروع به تکیه بر این ابزارها به عنوان دستیارهای ضروری (در خوب یا بد) کرده است، بهبود قابلیت اطمینان واقعی نمی تواند به زودی بیاید
برای نوشتن دیدگاه باید وارد بشوید.