مدیر ChatGPT:
پاسخهای هوش مصنوعی را بیچونوچرا نپذیرید

مدیر بخش ChatGPT در شرکت OpenAI بار دیگر هشدار داد که پاسخهای این ابزار هوش مصنوعی ممکن است همیشه دقیق نباشد و کاربران باید نتایج دریافتی را با منابع معتبر تطبیق دهند.
به گزارش ایلنا؛ نیک تورلی رئیس بخش ChatGPT در گفتگویی با پادکست Decoder وبسایت The Verge تأکید کرد: فاصله زیادی میان «قابلاعتماد بودن بالا» و «اطمینان کامل» وجود دارد. تا زمانی که هوش مصنوعی نتواند در همه حوزهها از یک متخصص انسانی دقیقتر عمل کند، توصیه ما این است که کاربران صحت پاسخها را دوباره بررسی کنند.
تورلی توضیح داد که ChatGPT و دیگر مدلهای مولد نباید بهعنوان مرجع اصلی حقیقت در نظر گرفته شوند، بلکه بهتر است کاربران به آنها مانند یک «نظر دوم» نگاه کنند.
وی افزود: این ابزارها ممکن است دچار «توهم» شوند و اطلاعات نادرست تولید کنند؛ چراکه اساس طراحیشان پیشبینی محتملترین پاسخ است، نه کشف واقعیت.
به گفته رئیس بخش ChatGPT، بالاترین کارایی این ابزار زمانی بهدست میآید که در کنار منابع معتبر مثل موتورهای جستوجو یا دادههای اختصاصی سازمانها استفاده شود.
تورلی اظهار کرد: همین موضوع موجب شد قابلیت جستوجو را به ChatGPT اضافه کنیم تا بتوانیم سطح اطمینان بیشتری به کاربران ارائه دهیم.