Close Menu
Pars Culture
    چه داغ است

    ولاد چرواتی درباره شایعات خیانت به همسرش می گوید: “من فقط می خندم”

    دسامبر 19, 2025

    رئیس مایکروسافت از کسانی که آمادگی به کارگیری هوش مصنوعی را ندارند خواست شغل خود را رها کنند

    دسامبر 19, 2025

    “جنگ داخلی”: چگونه و چرا زالوژنی “جمعیت اوکراین را ترساند”

    دسامبر 19, 2025
    • صفحه اصلی
    • تکنولوژی
    • جامعه
    • جهان
    • سرگرمی
    • سیاست
    • فرهنگ
    • بيان صحفي
    جمعه, دسامبر 19
    Pars Culture
    Pars Culture
    Home»تکنولوژی»چرا II Botov چت ، آنقدر بی معنی است که در مورد اشتباهات آنها بپرسید؟
    تکنولوژی

    چرا II Botov چت ، آنقدر بی معنی است که در مورد اشتباهات آنها بپرسید؟

    آگوست 19, 20255 Mins Read
    Share
    Facebook Twitter LinkedIn Pinterest Email

    هر بار که چت بابات اشتباه می کند ، اولین غریزه اکثر کاربران این است که بپرسید چه اتفاقی افتاده است که چرا چه کسی اشتباه کرده است. اما با مدل های زبانی ، بر خلاف افراد واقعی ، این کمکی نخواهد کرد. آنها به سادگی نمی توانند اشتباهات خود را تجزیه و تحلیل کنند. اطلاعات Port Arstechnica.com جزئیات سخن گفتنچرا

    چرا II Botov چت ، آنقدر بی معنی است که در مورد اشتباهات آنها بپرسید؟

    اولین مشکل مفهوم است. وقتی با یک چت بابات صحبت می کنید ، با برخی از افراد یا طبیعت دائمی ارتباط برقرار نمی کنید. بله ، Chatgpt ، Claude ، Grok یا Reprit از نظر فنی نامگذاری شده است ، اما آنها شایسته دانش نیستند – این فقط یک توهم است که توسط رابط گفتگو ایجاد شده است. در حقیقت ، شما آمار متن را کنترل می کنید و بسته به نیاز کاربر ، نتایج را ارائه می دهید.

    به عبارت دیگر ، هیچ چت یا گروک وجود ندارد. شخص با سیستمی در تعامل است که بر اساس نمونه های موجود در پایگاه داده (معمولاً منسوخ) یک متن صوتی کامل ایجاد می کند. این سیستم از خود درک یا دانش سیستم و همچنین توانایی آن در یادآوری خود برخوردار نیست.

    پس از مطالعه یک مدل زبانی ، زمان و منابع زیادی طول می کشد ، دانش اساسی آن در مورد جهان در یک شبکه عصبی پلمپ می شود و بندرت اصلاح می شود. هرگونه اطلاعات خارجی از نیازهای ربات ، ابزارهای کاربر یا نرم افزار برای استفاده برای یافتن داده ها در زمان واقعی استفاده می شود.

    به عنوان مثال ، اگر Grok را می گیرید ، منبع اصلی اطلاعات برای پاسخ ممکن است بر خلاف یکدیگر از پست های اخیر در شبکه های اجتماعی باشد. نه دانش ، مانند مورد همه. و اگر این اطلاعات کافی نباشد ، مدل به دلیل توانایی پیش بینی متن به سادگی چیزی را ارائه می دهد.

    شماره دو – که به دلایل مختلف نمی توانند توانایی های خود را درک کنند. به عنوان یک قاعده ، آنها اطلاعاتی در مورد نحوه تحقیق ندارند ، معماری سیستم اطراف برای آنها در دسترس نیست ، آنها نمی توانند مرزهای عملکرد آنها را تعیین کنند. اگر از Chatbot بپرسید که او چه کاری می تواند انجام دهد و چه چیزی نیست ، پس او بازخورد را بر اساس آنچه در مورد محدودیت های مدل های زبانی قبلی می گوید ، بازخورد می دهد. در حقیقت ، او به سادگی با یک حدس پاسخ می دهد ، و نه اطلاعات عملی در مورد خودش.

    تحقیقات در سال 2024 با کمک یک آزمایش ، این ظرافت را اثبات کرد. اگرچه مدل های II می توانند آموزش ببینند تا بتوانند رفتار خود را در کارهای ساده پیش بینی کنند ، اما دائماً در کارهای پیچیده تر شکست می خورند. به همین ترتیب ، تحقیقات در مورد معرفی بازگشتی وایکینگ نشان می دهد که هیچ پاسخی از خارج وجود ندارد ، که سعی می کند اشتباهات آنها را اصلاح کند و منجر به کاهش بهره وری مدل شود. یعنی عزت نفس هوش مصنوعی بدتر است ، بهتر نیست.

    بعضی اوقات این امر منجر به موقعیت های متناقض می شود. این مدل با اطمینان می تواند بگوید که نمی تواند وظایف را انجام دهد ، اما در واقع ، روی شانه او و برعکس ، به کاربران اطمینان می دهد که او می تواند آنچه را که غیرممکن است انجام دهد. ما نباید فراموش کنیم که با سؤال از هر کسی که در کجا اشتباه کرده است ، کاربران بخش دیگری از متن ایجاد شده را دریافت می کنند و نه یک تحلیل واقعی از خطا.

    نکته منفی مدل های زبان این است که آنها پایه دانش پایدار و مقرون به صرفه ای ندارند که همیشه می توانید با آن تماس بگیرید. دانش آنها فقط خود را برای برآورده کردن الزامات خاص بیان می کند. درخواست هر کاربر نقش نوع آدرس را ایفا می کند که به قسمت های مختلف پایگاه داده ای که او آموزش دیده است ، اشاره دارد. این دقیقاً همان چیزی است که منجر به پاسخ های متناقض می شود.

    اما حتی اگر II دانش ایده آل در مورد مکانیسم های خاص خود داشته باشد ، ممکن است سایر لایه های چت ربات برنامه ها نتوانند نفوذ کنند. بنابراین ، Aiststros مدرن ، مانند TATGPT ، یک مدل واحد نیست ، بلکه سیستم های بزرگی از جمله مدل های مختلف با هم کار می کنند. هر یک از آنها ، بیشتر ، از وجود دیگران اطلاع ندارند. بنابراین ، از هر کسی در مورد خطاهایی مانند درخواست بخشی از یک شرکت بزرگ درباره آنچه در بخش دیگری که هرگز با آنها تماس نگرفته اند ، سؤال کنید.

    سرانجام ، مهمترین نکته این است که کاربر تقریباً همیشه بر پاسخ هر کسی تأثیر می گذارد – مهم نیست که آنها می دانند یا نه. اگر از chatbot در وحشت سؤال کنید ، آیا او سوابق یا کد برنامه را نابود کرده است ، پس او تمایل دارد که به آن بله پاسخ دهد ، زیرا این گزینه برای زمینه عاطفی درخواست مناسب است.

    Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Previous ArticleOsym Ozyes از نظر تاریخی نتیجه می دهد
    Next Article “توبه شخصی”: کشیش توضیح می دهد که چرا کرکوروف مشکلات را دنبال می کند.

    پست های مرتبط

    تکنولوژی

    رئیس مایکروسافت از کسانی که آمادگی به کارگیری هوش مصنوعی را ندارند خواست شغل خود را رها کنند

    دسامبر 19, 2025
    تکنولوژی

    Blue Origin برای اولین بار کاربران ویلچر را به فضا می فرستد

    دسامبر 19, 2025
    تکنولوژی

    لوازم خانگی معمولی برای سلامتی خطرناک هستند

    دسامبر 19, 2025
    آخرین بررسی ها
    سرگرمی

    ولاد چرواتی درباره شایعات خیانت به همسرش می گوید: “من فقط می خندم”

    دسامبر 19, 2025
    تکنولوژی

    رئیس مایکروسافت از کسانی که آمادگی به کارگیری هوش مصنوعی را ندارند خواست شغل خود را رها کنند

    دسامبر 19, 2025
    جهان

    “جنگ داخلی”: چگونه و چرا زالوژنی “جمعیت اوکراین را ترساند”

    دسامبر 19, 2025
    جامعه

    روزنامه نگاران گروه رسانه ای Rambler&Co برنده مسابقه “روزنامه نگاری دیجیتال – 2025” شدند.

    دسامبر 19, 2025
    سیاست

    روسیه به رئیس سردرگم دیپلماسی اروپایی پاسخ داد

    دسامبر 19, 2025
    سرگرمی

    ظاهراً دولینا پس از درخواست اخراج، در آپارتمان خود کلاهبرداری کرده است

    دسامبر 19, 2025

    Crecries ISS-74 از مسابقه عبور عبور کرد

    اکتبر 8, 202515 Views

    مترو: 3،000 نفر برنامه VPN را به سرقت بردند Modpro IP TV + VPN

    اکتبر 9, 20257 Views

    Honor نازکترین تلفن هوشمند جهان را منتشر کرده است

    جولای 3, 20256 Views

    رئیس مایکروسافت از کسانی که آمادگی به کارگیری هوش مصنوعی را ندارند خواست شغل خود را رها کنند

    دسامبر 19, 2025

    روزنامه نگاران گروه رسانه ای Rambler&Co برنده مسابقه “روزنامه نگاری دیجیتال – 2025” شدند.

    دسامبر 19, 2025

    روسیه به رئیس سردرگم دیپلماسی اروپایی پاسخ داد

    دسامبر 19, 2025

    ولاد چرواتی درباره شایعات خیانت به همسرش می گوید: “من فقط می خندم”

    دسامبر 19, 2025

    رئیس مایکروسافت از کسانی که آمادگی به کارگیری هوش مصنوعی را ندارند خواست شغل خود را رها کنند

    دسامبر 19, 2025

    “جنگ داخلی”: چگونه و چرا زالوژنی “جمعیت اوکراین را ترساند”

    دسامبر 19, 2025
    • صفحه اصلی
    • تکنولوژی
    • جامعه
    • جهان
    • سرگرمی
    • سیاست
    • فرهنگ
    • بيان صحفي
    © 2025 Pars Culture

    Type above and press Enter to search. Press Esc to cancel.