مراقبت افراد مبتلا به سرطان در استفاده از «ChatGPT»
تاریخ انتشار: ۲۸ اسفند ۱۴۰۱ | کد خبر: ۳۷۳۵۸۶۹۵
به گزارش خبرگزاری صدا وسیما، به نقل از نیو وایز، از آنجا که چتباتهای مبتنی بر هوش مصنوعی در حال تبدیل شدن به منابع محبوب برای اطلاعات سرطان هستند، یک پژوهش به بررسی آنها پرداخته است. پژوهشگران در این پروژه دریافتند که این منابع، اطلاعات دقیقی را در مورد داستانها و باورهای نادرست پیرامون سرطان ارائه میدهند.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
دکتر «اسکایلر جانسون» (Skyler Johnson)، پزشک-دانشمند «مؤسسه سرطان هانتسمن» (Huntsman Cancer Institute) و دانشیار بخش تشعشع سرطان در «دانشگاه یوتا» (UofU)، در پژوهشی که نخستین نمونه در نوع خود به شمار میرود، قابلیت اطمینان و دقت اطلاعات سرطان ربات «ChatGPT» را ارزیابی کرد.
جانسون و گروهش با استفاده از داستانها و باورهای نادرست رایج «مؤسسه ملی سرطان آمریکا» (NCI) در مورد سرطان دریافتند که ۹۷ درصد از پاسخها درست بودهاند.
در هر حال، این یافتهها با برخی هشدارهای مهم همراه هستند؛ از جمله نگرانی در مورد این موضوع که برخی از پاسخهای ChatGPT ممکن است اشتباه تفسیر شوند.
این امر میتواند به تصمیمات بد بیماران مبتلا به سرطان منجر شود. این گروه پژوهشی در مورد استفاده از چتباتها برای کسب اطلاعات در مورد سرطان، احتیاط را به بیماران توصیه کردند.
این پژوهش نشان داد که مشخص نبود پاسخها از سوی چتبات آمدهاند یا مؤسسه ملی سرطان آمریکا. اگرچه پاسخها دقیق بودند، اما پژوهشگران دریافتند که زبان ChatGPT، غیر مستقیم، مبهم و در برخی موارد نامشخص است.
جانسون گفت: من درک میکنم که دسترسی به اطلاعات دقیق، برای بیماران مبتلا به سرطان و مراقبان آنها چقدر دشوار است. این منابع باید بررسی شوند تا بتوانیم به بیماران مبتلا به سرطان کمک کنیم که در محیط اطلاعات آنلاین حرکت کنند و به دنبال پاسخ درستی در مورد بیماری خود باشند.
اطلاعات نادرست میتوانند به بیماران مبتلا به سرطان آسیب برسانند. جانسون و گروهش در پژوهش پیشین خود که در «Journal of the National Cancer Institute» به چاپ رسید، دریافتند که اطلاعات نادرست در رسانههای اجتماعی رایج هستند و میتوانند به بیماران مبتلا به سرطان آسیب برسانند.
گامهای بعدی جانسون و گروهش، ارزیابی این است که بیماران چقدر از چتباتها برای جستجوی اطلاعات درباره سرطان استفاده میکنند، چه سؤالاتی میپرسند و آیا چتباتهای هوش مصنوعی، پاسخهای دقیقی را به پرسشهای غیر رایج در مورد سرطان میدهند یا خیر. این پژوهش در «Journal of The National Cancer Institute Cancer Spectrum» به چاپ رسید.
منبع: خبرگزاری صدا و سیما
کلیدواژه: بیماران مبتلا به سرطان چت بات ها پاسخ ها
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.iribnews.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «خبرگزاری صدا و سیما» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۳۵۸۶۹۵ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
شکایت علیه ChatGPT به دلیل ناتوانی در تصحیح خطاها
ایتنا - انجمن "Noib" اتریش که ( انجمن حفاظت از حریم خصوصی)، روز دوشنبه اعلام کرد که در اتریش علیه برنامه معروف هوش مصنوعی "ChatGPT" شکایت کرده است.
انجمن Noib، که نام آن از حروف اول کلمات "None of Your Business" به معنای "به شما ربطی ندارد" در انگلیسی تشکیل شده است، تأیید کرد که این ابزار "پاسخها را میسازد".
به عنوان مثال، یک سوال در ChatGPT در مورد تاریخ تولد موسس انجمن، مکس شرم، پرسیده شد و برنامه به جای بیان اینکه پاسخ این سوال را نمیداند، "اطلاعات گمراه کننده" را نمایش داد.
به گزارش ایتنا، در این بیانیه به نقل از وکیل مارتیه دو گراف آمده است: «اگر برنامهای نتواند نتایج درست و شفافی را نمایش دهد، نمیتوان از آن برای تولید دادههای مربوط به افراد استفاده کرد» و افزود: «تکنولوژی باید با قانون مطابقت داشته باشد، نه برعکس.»
"Noib" در بیانیه خود که توسط خبرگزاری فرانسه منتشر شد، تأیید کرد که عملکرد برنامه "غیرقابل قبول" است و یادآوری می کند که قانون حفاظت از دادههای اروپا (GDPR) به «دقت» در ابزارهای تکنولوژیکی نیاز دارد.
از آنجایی که OpenAI "درخواست شاکی برای اصلاح یا پاک کردن خطا را رد کرد و تاکید کرد که این کار غیرممکن است"، مشخص شد که فراموش کردن آنچه که هوش مصنوعی آموخته است، یک معضل اساسی است.
این شرکت به درخواست Noib برای به دست آوردن اطلاعات مربوط به آن و منابع اطلاعاتی پاسخ نداد. این نیز نقض قانون است.
در این شکایت، Noib از سازمان حفاظت از دادههای اتریش خواست تا تحقیقاتی را آغاز کند و برای OpenAI جریمه کند.