خبرگزاری کار ایران

مدیر ChatGPT:

پاسخ‌های هوش مصنوعی را بی‌چون‌وچرا نپذیرید

پاسخ‌های هوش مصنوعی را بی‌چون‌وچرا نپذیرید

مدیر بخش ChatGPT در شرکت OpenAI بار دیگر هشدار داد که پاسخ‌های این ابزار هوش مصنوعی ممکن است همیشه دقیق نباشد و کاربران باید نتایج دریافتی را با منابع معتبر تطبیق دهند.

به گزارش ایلنا؛ نیک تورلی رئیس بخش ChatGPT در گفتگویی با پادکست Decoder وب‌سایت The Verge تأکید کرد: فاصله زیادی میان «قابل‌اعتماد بودن بالا» و «اطمینان کامل» وجود دارد. تا زمانی که هوش مصنوعی نتواند در همه حوزه‌ها از یک متخصص انسانی دقیق‌تر عمل کند، توصیه ما این است که کاربران صحت پاسخ‌ها را دوباره بررسی کنند.

تورلی توضیح داد که ChatGPT و دیگر مدل‌های مولد نباید به‌عنوان مرجع اصلی حقیقت در نظر گرفته شوند، بلکه بهتر است کاربران به آن‌ها مانند یک «نظر دوم» نگاه کنند.

وی افزود: این ابزارها ممکن است دچار «توهم» شوند و اطلاعات نادرست تولید کنند؛ چراکه اساس طراحی‌شان پیش‌بینی محتمل‌ترین پاسخ است، نه کشف واقعیت.

به گفته رئیس بخش ChatGPT، بالاترین کارایی این ابزار زمانی به‌دست می‌آید که در کنار منابع معتبر مثل موتورهای جست‌وجو یا داده‌های اختصاصی سازمان‌ها استفاده شود.

تورلی اظهار کرد: همین موضوع موجب شد قابلیت جست‌وجو را به ChatGPT اضافه کنیم تا بتوانیم سطح اطمینان بیشتری به کاربران ارائه دهیم.

انتهای پیام/
ارسال نظر
پیشنهاد امروز