چرا چت جی پی تی-3 و بینگ چت در حل کردن مسائل مفید اند ؟

مقدمه

در چند ماه گذشته، چت ربات‌های هوش مصنوعی مانند چت جی پی تی  توجه جهانیان را به دلیل توانایی آنها در مکالمه به روشی شبیه انسان در مورد هر موضوعی به خود جلب کرده اند. اما آنها با یک اشکال جدی روبرو هستند: آنها می توانند اطلاعات نادرست قانع کننده را به راحتی ارائه دهند و آنها را به منابع غیر قابل اعتماد اطلاعات واقعی و منابع بالقوه تبدیل کنند.

“توهمات” – یک اصطلاح بارگذاری شده در هوش مصنوعی

چت ربات‌های هوش مصنوعی مانند چت جی پی تی برای تولید پاسخ‌های خود به نوعی از هوش مصنوعی به نام «مدل زبان بزرگ» (LLM) متکی هستند. LLM یک برنامه کامپیوتری است که بر روی میلیون‌ها منبع متنی آموزش دیده است که می‌تواند متن «زبان طبیعی» را بخواند و تولید کند – زبانی که انسان به طور طبیعی می‌نویسد یا صحبت می‌کند. متاسفانه آنها نیز ممکن است اشتباه کنند.

در ادبیات دانشگاهی، محققان هوش مصنوعی اغلب این اشتباهات را “توهم” می نامند. اما این برچسب با تبدیل شدن موضوع به جریان اصلی بحث‌برانگیز شده است، زیرا برخی افراد احساس می‌کنند که مدل‌های هوش مصنوعی شبیه به انسان هستند. یا به آنها اختیار می‌دهد (پیشنهاد می‌کند که می‌توانند انتخاب‌های خود را انجام دهند) در شرایطی که نباید به طور ضمنی به آن اشاره کرد.

با این حال، هوش مصنوعی آنقدر جدید است که برای توضیح این مفاهیم بسیار فنی برای عموم به استعاره هایی نیاز داریم که از ایده های موجود وام گرفته شده باشند. در این راستا، ما احساس می کنیم که اصطلاح “confabulation”، اگرچه به طور مشابه ناقص است، استعاره ای بهتر از “توهم” است. در روانشناسی انسان، یک “confabulation”زمانی اتفاق می افتد که حافظه شخصی دچار شکاف شود و مغز به طور قانع کننده ای بقیه را بدون قصد فریب دیگران پر می کند. چت جی پی تی نمی کند مانند مغز انسان کار کنید، اما اصطلاح “confabulation” مسلماً به عنوان یک استعاره بهتر عمل می کند زیرا همانطور که در زیر به بررسی آن خواهیم پرداخت، یک اصل خلاقانه پر کردن شکاف در کار وجود دارد.

مشکل confabulation

زمانی که یک ربات هوش مصنوعی اطلاعات نادرستی تولید می کند که به طور بالقوه می تواند گمراه کننده، اطلاعات نادرست یا بدنام باشد، مشکل بزرگی است. اخیراً واشنگتن پست گزارش شده است در مورد یک استاد حقوق که متوجه شد چت جی پی تی او را در لیستی از دانشمندان حقوقی قرار داده است که شخصی را مورد آزار جنسی قرار داده اند. اما هرگز اتفاق نیفتاد – چت جی پی تی آن را ساخت. همان روز، ارس گزارش شده است در مورد یک شهردار استرالیایی که ظاهراً متوجه شد که چت جی پی تی ادعا کرده است که به رشوه خواری محکوم شده و به زندان محکوم شده است، که یک ساختگی کامل است.

مدت کوتاهی پس از راه اندازی چت جی پی تی، مردم شروع به کار کردند اعلام می کند انتهای موتور جستجو با این حال، در همان زمان، نمونه‌های زیادی از مخدوش‌های چت جی پی تی در رسانه‌های اجتماعی منتشر شد. ربات هوش مصنوعی اختراع کرده است کتاب ها ومطالعات که وجود ندارند،انتشارات که اساتید ننوشتند، جعلی مقالات دانشگاهی، نادرست استنادات قانونی، وجود ندارد ویژگی های سیستم لینوکس، غیر واقعی طلسم های خرده فروشی، و جزئیات فنی که معنی ندارد

و با وجود این، علیرغم تمایل چت جی پی تی به فیلینگ گاه به گاه، بر خلاف شهود، مقاومت آن در برابر ادغام دلیلی است که ما حتی امروز در مورد آن صحبت می کنیم. برخی از کارشناسان خاطرنشان می کنند که چت جی پی تی از نظر فنی یک پیشرفت نسبت به وانیلی GPT-3 (مدل قبلی خود) بود، زیرا می تواند از پاسخ دادن به برخی سوالات خودداری کند یا زمانی که پاسخ های آن ممکن است دقیق نباشد به شما اطلاع دهد.

رایلی گود ساید، متخصص در مدل‌های زبان بزرگ که به‌عنوان مهندس سریع‌السیر کارکنان در Scale AI کار می‌کند، می‌گوید: «یکی از عوامل اصلی موفقیت چت جی پی تی این است که می‌تواند به‌اندازه کافی ترکیب‌بندی را سرکوب کند تا برای بسیاری از سوالات رایج غیر قابل توجه باشد. در مقایسه با پیشینیان خود، چت جی پی تی به طور قابل توجهی کمتر مستعد ساختن چیزها است.

اگر به عنوان یک ابزار طوفان فکری استفاده شود، جهش‌های منطقی چت جی پی تی ممکن است منجر به پیشرفت‌های خلاقانه شود. اما وقتی از چت جی پی تی به عنوان یک مرجع واقعی استفاده می شود، می تواند آسیب واقعی ایجاد کند، و اوپن ای آی آن را می داند.

مدت زیادی پس از عرضه این مدل، سام آلتمن، مدیر عامل اوپن ای آی توییت کرد، “چت جی پی تی فوق العاده محدود است، اما در برخی چیزها به اندازه کافی خوب است تا تصور گمراه کننده ای از عظمت ایجاد کند. این اشتباه است که در حال حاضر برای هر چیز مهمی به آن اعتماد کنیم. این یک پیش نمایش از پیشرفت است؛ ما کارهای زیادی برای انجام دادن روی استحکام داریم. و راستی.” در یک بعد تویی تو نوشت: “خیلی چیزها را می داند، اما خطر این است که در بخش قابل توجهی از زمان اعتماد به نفس دارد و اشتباه می کند.”

 

نحوه عملکرد چت جی پی تی

برای درک اینکه چگونه یک مدل جی پی تی مانند چت جی پی تی یا بینگ چت با هم ترکیب می شود، باید بدانیم مدل های جی پی تی چگونه کار می کنند. در حالی که اوپن ای آی جزئیات فنی چت جی پی تی را منتشر نکرده است،بینگ چت، یا حتی GPT-4، ما به آن دسترسی داریم مقاله تحقیقاتی که پیشرو خود، GPT-3 را در سال 2020 معرفی کردند.

محققان با استفاده از فرآیندی به نام «یادگیری بدون نظارت»، مدل‌های زبان بزرگی مانند GPT-3 و GPT-4 را می‌سازند (آموزش می‌دهند)، به این معنی که داده‌هایی که برای آموزش مدل استفاده می‌کنند، حاشیه‌نویسی یا برچسب‌گذاری خاصی ندارند. در طول این فرآیند، مدل به حجم وسیعی از متن (میلیون‌ها کتاب، وب‌سایت، مقاله، شعر، رونوشت و منابع دیگر) تغذیه می‌شود و مکرراً سعی می‌کند کلمه بعدی را در هر دنباله کلمات پیش‌بینی کند. اگر پیش‌بینی مدل نزدیک به کلمه بعدی واقعی باشد، شبکه عصبی پارامترهای خود را به‌روزرسانی می‌کند تا الگوهایی را که منجر به آن پیش‌بینی شده است، تقویت کند.

برعکس، اگر پیش‌بینی نادرست باشد، مدل پارامترهای خود را برای بهبود عملکرد خود تنظیم می‌کند و دوباره تلاش می‌کند. این فرایند آزمون و خطا، اگرچه تکنیکی به نام «انتشار پس‌انداز» است، به مدل اجازه می‌دهد تا از اشتباهات خود درس بگیرد و به تدریج پیش‌بینی‌های خود را در طول فرآیند آموزش بهبود بخشد.

در نتیجه، GPT ارتباط آماری بین کلمات و مفاهیم مرتبط در مجموعه داده را می آموزد. برخی از افراد، مانند دانشمند ارشد OpenAI Ilya Sutskever، فکر می کنند که GPT مدل میکندحتی فراتر از آن بروید، نوعی مدل واقعیت داخلی را ایجاد می کنند تا بتوانند بهترین نشانه بعدی را با دقت بیشتری پیش بینی کنند، اما این ایده بحث برانگیز است. جزئیات دقیق اینکه چگونه مدل‌های GPT به توکن بعدی در شبکه‌های عصبی خود می‌رسند هنوز نامشخص است.

در موج فعلی مدل‌های GPT، این آموزش اصلی (اکنون اغلب «پیش‌آموزش» نامیده می‌شود) تنها یک بار اتفاق می‌افتد. پس از آن، افراد می‌توانند از شبکه عصبی آموزش‌دیده در «حالت استنتاج» استفاده کنند، که به کاربران اجازه می‌دهد یک ورودی به شبکه آموزش‌دیده داده و نتیجه بگیرند. در طول استنتاج، توالی ورودی برای مدل GPT همیشه توسط یک انسان ارائه می‌شود و به آن «اعلان» می‌گویند. اعلان خروجی مدل را تعیین می‌کند، و تغییر دادن فرمان حتی اندکی می‌تواند به‌طور چشمگیری چیزی را که مدل تولید می‌کند تغییر دهد.

به عنوان مثال، اگر از GPT-3 با “Mary had a” درخواست کنید، معمولا جمله را با “Little Lamb” تکمیل می کند. این به این دلیل است که احتمالاً هزاران نمونه از “مری یک بره کوچک داشت” در مجموعه داده های آموزشی GPT-3 وجود دارد که آن را به یک تکمیل معقول تبدیل می کند. اما اگر زمینه بیشتری را در دستور اضافه کنید، مانند «در بیمارستان، مری یک علامت داشت»، نتیجه تغییر می‌کند و کلماتی مانند «بچه» یا «مجموعه آزمایش‌ها» را برمی‌گرداند.

اینجاست که همه چیز با چت جی پی تی کمی خنده دار می شود، زیرا به جای یک کار تکمیل متن مستقیم، به عنوان یک مکالمه با یک نماینده قاب می شود. در مورد چت جی پی تی، اعلان ورودی کل مکالمه ای است که با چت جی پی تی داشته اید، از اولین سوال یا بیانیه شما شروع می شود و شامل هر موردی می شود.دستورالعمل های خاص قبل از شروع گفتگوی شبیه سازی شده به چت جی پی تی ارائه شد. در طول مسیر، چت جی پی تی یک حافظه کوتاه مدت در حال اجرا (به نام “پنجره زمینه”) از هر چیزی که نوشته اید و شما نوشته اید نگه می دارد و وقتی با شما “صحبت می کند”، سعی می کند رونوشت مکالمه را به صورت متن کامل کند. -تکمیل کار

علاوه بر این، چت جی پی تی با وانیلی GPT-3 متفاوت است زیرا بر روی رونوشت مکالمات نوشته شده توسط انسان نیز آموزش دیده است. “ما یک مدل اولیه را با استفاده از تنظیم دقیق نظارت شده آموزش دادیم: مربیان هوش مصنوعی مکالماتی را ارائه کردند که در آن هر دو طرف بازی می کردند – کاربر و دستیار هوش مصنوعی.”OpenAI نوشت در صفحه انتشار اولیه چت جی پی تی خود. ما به مربیان اجازه دادیم تا به پیشنهادهای مدل نوشته شده دسترسی داشته باشند تا به آنها کمک کنیم تا پاسخ های خود را بنویسند.

چت جی پی تی همچنین با استفاده از تکنیکی به نام “یادگیری تقویتی از بازخورد انسانی” یا RLHF به شدت نسبت به GPT-3 تنظیم شده است، که در آن ارزیابی‌کنندگان انسانی پاسخ‌های چت جی پی تی را به ترتیب اولویت رتبه‌بندی می‌کنند، سپس آن اطلاعات را به مدل برمی‌گردانند. از طریق RLHF، OpenAI توانست هدف خودداری از پاسخگویی به بسیاری از سؤالاتی را که نمی تواند به طور قابل اعتماد به آنها پاسخ دهد، در مدل القا کند. این به چت جی پی تی اجازه می دهد تا پاسخ های منسجمی را با ترکیبات کمتر نسبت به مدل پایه تولید کند. اما نادرستی ها هنوز از بین می روند.

چرا چت جی پی تی confabulation است ؟ 

در اصل، هیچ چیز در مجموعه داده های خام مدل GPT وجود ندارد که واقعیت را از داستان جدا کند. این راهنمایی از

الف) رواج محتوای دقیق در مجموعه داده‌ها،

ب) تشخیص اطلاعات واقعی در نتایج توسط انسان‌ها،

ج) راهنمایی یادگیری تقویتی از سوی انسان‌ها که بر پاسخ‌های واقعی خاص تأکید دارد، می‌آید.

رفتار LLM ها هنوز یک حوزه فعال تحقیقاتی است. حتی محققانی که این مدل‌های GPT را ایجاد کرده‌اند نیز هستند هنوز در حال کشف شگفت آور خاص از فناوری هایی که هیچ کس در ابتدای توسعه آنها پیش بینی نکرده بود. توانایی‌های GPT برای انجام بسیاری از کارهای جالبی که اکنون می‌بینیم، مانند ترجمه زبان، برنامه‌نویسی و بازی شطرنج، در یک مقطع برای محققان شگفت‌انگیز بود (برای درک اولیه آن، GPT-2 2019 را بررسی کنید.مقاله تحقیقاتی و عبارت “غافلگیر کننده” را جستجو کنید).

بنابراین وقتی می‌پرسیم چرا چت جی پی تیبا هم ترکیب می‌شود، اینطور است دشوار برای مشخص کردن یک پاسخ فنی دقیق و از آنجایی که یک عنصر “جعبه سیاه” از وزن شبکه عصبی وجود دارد، پیش بینی خروجی دقیق آنها با توجه به یک دستور پیچیده بسیار دشوار (اگر نه غیرممکن) است. با این حال، ما چند چیز اساسی در مورد اینکه چرا confabulation اتفاق می افتد می دانیم.

کلید درک توانایی Confabulation چت جی پی تی درک نقش آن به عنوان یک ماشین پیش بینی است. هنگامی که چت جی پی تی با هم ترکیب می‌شود، به دنبال اطلاعات یا تحلیل‌هایی است که در مجموعه داده‌های آن وجود ندارد و جاهای خالی را با کلماتی با صدای معقول پر می‌کند. چت جی پی تیبه‌خاطر حجم فوق‌العاده‌ای از داده‌هایی که باید با آن کار کند، به‌ویژه در ساختن چیزها خوب است، و توانایی آن در جمع‌آوری متن بسیار خوب به آن کمک می‌کند اطلاعات اشتباه را به‌طور یکپارچه در متن اطراف قرار دهد.

Simon Willison گفت: “من فکر می کنم بهترین راه برای فکر کردن در مورد confabulation این است که در مورد ماهیت مدل های زبان بزرگ فکر کنید: تنها کاری که آنها می دانند چگونه انجام دهند این است که بهترین کلمه بعدی را بر اساس احتمال آماری در برابر مجموعه آموزشی خود انتخاب کنند.” ، یک توسعه دهنده نرم افزار که اغلب می نویسد در مورد موضوع

در یک مقاله 2021 سه نفر از محققان دانشگاه آکسفورد و OpenAI شناسایی کردند دو نوع عمده از دروغ هایی که ممکن است LLM هایی مانند چت جی پی تی ایجاد کنند. اولین مورد ناشی از منابع نادرست در مجموعه داده های آموزشی آن است، مانند تصورات غلط رایج (به عنوان مثال، “خوردن بوقلمون شما را خواب آلود می کند”). دومی ناشی از استنتاج در مورد موقعیت های خاص است که در مواد آموزشی آن (مجموعه داده) وجود ندارد. این تحت عنوان “توهم” فوق الذکر قرار می گیرد.

اینکه آیا مدل GPT حدس می‌زند یا خیر، بر اساس ویژگی‌ای است که محققان هوش مصنوعی آن را «دما» می‌نامند، که اغلب به عنوان تنظیم «خلاقیت» شناخته می‌شود. اگر خلاقیت بالا باشد، مدل به طرز عجیبی حدس می‌زند. اگر پایین تنظیم شود، بر اساس مجموعه داده های خود، داده ها را به طور قطعی بیرون می دهد.

به تازگی، کارمند مایکروسافت میخائیل پاراخین، که در بینگ چت کار می کند،توییت کرد در مورد تمایل بینگ چت به توهم و دلایل آن. او نوشت: “این چیزی است که قبلاً سعی کردم توضیح دهم: توهم = خلاقیت.” سعی می‌کند با استفاده از تمام داده‌هایی که در اختیار دارد، بیشترین احتمال ادامه رشته را تولید کند. اغلب اوقات درست است. گاهی اوقات مردم هرگز ادامه‌هایی مانند این تولید نکرده‌اند.

پاراخین گفت که آن جهش های خلاقانه وحشی چیزی است که LLM ها را جالب می کند. او نوشت: “شما می توانید توهمات را مهار کنید، و این فوق العاده خسته کننده است.” “[این] همیشه به “نمی‌دانم” پاسخ می‌دهد یا فقط آنچه را در نتایج جستجو وجود دارد می‌خواند (همچنین گاهی اوقات نادرست است). چیزی که از دست می‌رود لحن صدا است: در آن موقعیت‌ها نباید آنقدر مطمئن به نظر برسد. ”

ایجاد تعادل بین خلاقیت و دقت در هنگام تنظیم دقیق مدل های زبان مانند چت جی پی تی یک چالش است. از یک طرف، توانایی ارائه پاسخ‌های خلاقانه چیزی است که ChatGPT را به ابزار قدرتمندی برای تولید ایده‌های جدید یا رفع انسداد بلاک نویسنده تبدیل می‌کند. همچنین باعث می‌شود که مدل‌ها صدای انسان‌تری داشته باشند. از سوی دیگر، دقت در منبع منبع زمانی که نوبت به تولید اطلاعات قابل اعتماد و پرهیز از سردرگمی می‌رسد، بسیار مهم است. یافتن تعادل مناسب بین این دو چالشی مداوم برای توسعه مدل‌های زبانی است، اما برای تولید ابزاری مفید و قابل اعتماد ضروری است.

همچنین بحث فشرده سازی وجود دارد. در طول فرایند آموزش، GPT-3 پتابایت اطلاعات را در نظر گرفت، اما شبکه عصبی حاصل تنها کسری از اندازه آن است. در یک قطعه نیویورکر که به طور گسترده خوانده شده است، نویسنده تد چیانگ این را “JPEG تار وب” نامیده است. این بدان معناست که بخش بزرگی از داده‌های آموزشی واقعی از بین می‌رود، اما GPT-3 آن را با یادگیری روابط بین مفاهیم جبران می‌کند که بعداً می‌تواند برای فرمول‌بندی مجدد جایگشت‌های جدید این حقایق استفاده کند. مانند یک انسان با حافظه ای ناقص که بر اساس نحوه عملکرد یک چیز کار می کند، گاهی اوقات همه چیز را اشتباه می کند. و البته اگر جواب را نداند بهترین حدس خود را خواهد داد.

ما نمی توانیم نقش اعلان را در اشتباهات فراموش کنیم. از برخی جهات، چت جی پی تی یک آینه است: آنچه را که به آن تغذیه میکنید به شما باز می گرداند. اگر به آن دروغ بپردازید، تمایل دارد با شما موافق باشد و در همین راستا “فکر” کند. به همین دلیل است که هنگام تغییر سوژه یا تجربه پاسخ های ناخواسته، مهم است که با یک اعلان جدید شروع کنید. و چت جی پی تی احتمالاتی است، به این معنی که ماهیت آن تا حدی تصادفی است. حتی با همان اعلان، آنچه را که خروجی می دهد می تواند بین جلسات تغییر کند.

همه اینها منجر به یک نتیجه می شود، نتیجه ای که OpenAI با آن موافق است: چت جی پی تی همانطور که در حال حاضر طراحی شده است، منبع قابل اعتمادی از اطلاعات واقعی نیست و نمی توان به آن اعتماد کرد. دکتر مارگارت میچل، محقق و دانشمند ارشد اخلاق در شرکت هوش مصنوعی Hugging Face، می‌گوید: «چت جی پی تی برای برخی چیزها، مانند رفع انسداد بلاک نویسنده یا ارائه ایده‌های خلاقانه، عالی است. “این ساخته نشده است که واقعی باشد و بنابراین واقعی نخواهد بود. به همین سادگی است.”

آیا فیبینگ قابل تعمیر است؟

اعتماد کورکورانه به نسل‌های چت ربات هوش مصنوعی یک اشتباه است، اما ممکن است با بهبود فناوری اساسی تغییر کند. از زمان انتشار آن در نوامبر، چت جی پی تی قبلاً وجود داشته است چندین بار ارتقا یافته است و برخی ارتقاء ها شامل بهبودهایی در دقت و همچنین توانایی بهبود یافته برای امتناع از پاسخ دادن به سوالاتی است که پاسخ آنها را نمی داند.

بنابراین چگونه اوپن ای آی قصد دارد چت جی پی تی را دقیق تر کند؟ ما در چند ماه گذشته چندین بار در مورد این موضوع با OpenAI تماس گرفتیم و هیچ پاسخی دریافت نکردیم. اما می‌توانیم سرنخ‌هایی را از اسنادی که اوپن ای آی منتشر کرده است به دست آوریم گزارش های خبری در مورد تلاش های شرکت برای هدایت همسویی چت جی پی تی با کارکنان انسانی.

همانطور که قبلا ذکر شد، یکی از دلایل موفقیت چت جی پی تی به دلیل آموزش گسترده با استفاده از RLHF است. همانطور که OpenAI توضیح می دهد، “برای اینکه مدل های خود را ایمن تر، مفیدتر و همسو تر کنیم، از یک تکنیک موجود به نام یادگیری تقویتی از بازخورد انسانی (RLHF) استفاده می کنیم. در درخواست هایی که مشتریان ما به API ارسال می کنند، برچسب گذاران ما نمایش هایی از مطلوب ارائه می دهند. رفتار مدل و رتبه بندی چندین خروجی از مدل های ما. سپس از این داده ها برای تنظیم دقیق GPT-3 استفاده می کنیم.”

Sutskever از OpenAI معتقد است که آموزش اضافی از طریق RLHF می تواند مشکل توهم را برطرف کند. Sutskever در ادامه گفت: “من کاملاً امیدوار هستم که با بهبود این یادگیری تقویتی بعدی از گام بازخورد انسانی، بتوانیم به آن بیاموزیم که توهم نداشته باشد.”مصاحبه با فوربس اوایل این ماه

او ادامه داد:

روشی که ما امروز انجام می دهیم این است که افرادی را استخدام می کنیم تا به شبکه عصبی ما رفتار کنند و به چت جی پی تی رفتار کنند. شما فقط با آن تعامل می کنید، و از واکنش شما می بیند، اوه، این چیزی نیست که شما می خواستید. شما از خروجی آن راضی نیستید. بنابراین، خروجی خوب نبود و دفعه بعد باید کاری متفاوت انجام دهد. من فکر می کنم احتمال بسیار بالایی وجود دارد که این رویکرد بتواند توهمات را به طور کامل برطرف کند.

دیگران مخالفند. Yann LeCun، دانشمند ارشد هوش مصنوعی در Meta،معتقد است مشکلات توهم با نسل فعلی LLM که از معماری GPT استفاده می کنند حل نخواهد شد. اما یک رویکرد به سرعت در حال ظهور وجود دارد که ممکن است با معماری فعلی، دقت بسیار بیشتری را برای LLM ها به ارمغان بیاورد.

گود ساید گفت: «یکی از فعال‌ترین روش‌های تحقیق شده برای افزایش واقعیت در LLM، تقویت بازیابی – ارائه اسناد خارجی به مدل برای استفاده به عنوان منابع و زمینه پشتیبانی است.» او توضیح داد که با این تکنیک، محققان امیدوارند که به مدل‌ها یاد بدهند که از موتورهای جستجوی خارجی مانند گوگل استفاده کنند، «همانطور که یک محقق انسانی ممکن است به منابع قابل اعتماد در پاسخ‌های خود استناد کنند و کمتر بر دانش واقعی غیرقابل اعتمادی که در طول آموزش مدل‌ها آموخته‌اند، تکیه کنند».

بینگ چت و گوگل بارد این کار را از قبل با استفاده از جستجوهای وب انجام دهید، و به زودی، نسخه فعال مرورگر چت جی پی تی نیز همینطور خواهد بود. علاوه بر این،پلاگین های چت جی پی تی هدف این است که داده های آموزشی GPT-4 را با اطلاعاتی که از منابع خارجی بازیابی می کند، مانند وب و پایگاه داده های ساخته شده، تکمیل کنند. این تقویت شبیه به این است که چگونه انسانی با دسترسی به یک دایره المعارف از نظر واقعی دقیق تر از انسانی بدون دانشنامه است.

همچنین، ممکن است بتوان مدلی مانند GPT-4 را آموزش داد تا از زمان ساخت آن آگاه باشد و بر اساس آن تنظیم شود. میچل گفت: “کارهای عمیق تری وجود دارد که می توان انجام داد تا چت جی پی تی و موارد مشابه از ابتدا واقعی تر باشند، از جمله مدیریت داده های پیچیده تر و پیوند داده های آموزشی با امتیازهای “اعتماد”، با استفاده از روشی که بی شباهت به رتبه صفحه نیست. .. همچنین می‌توان زمانی که مدل به پاسخ اطمینان کمتری داشت، تنظیم دقیقی انجام داد.

بنابراین، در حالی که چت جی پی تی در حال حاضر در حال حاضر به خاطر مجموعه‌های خود در آب داغ است، ممکن است راهی برای خروج وجود داشته باشد، و به خاطر دنیایی که شروع به تکیه بر این ابزارها به عنوان دستیارهای ضروری (در خوب یا بد) کرده است، بهبود قابلیت اطمینان واقعی نمی تواند به زودی بیاید

کلیدواژه : هوش مصنوعی
prolife1style
ارسال دیدگاه