Go Map نقشه

ChatGPT می تواند اطلاعات پزشکی قانع کننده جعل کند !

ChatGPT می تواند اطلاعات پزشکی قانع کننده جعل کند !

نقشه: پژوهش های جدید نشان میدهد که ربات هوش مصنوعی ChatGPT می تواند داده ها و اطلاعات جعلی را واقعی جلوه دهد که خصوصاً در مورد اطلاعات پزشکی می تواند خطرآفرین باشد.


به گزارش نقشه به نقل از ایسنا و به نقل از کاسموس، پژوهش های جدید نشان میدهد که ChatGPT می تواند داده های پزشکی قانع کننده ای جعل کند.
نویسندگان این مطالعه جدید ادعا می کنند که این ابزار هوش مصنوعی، کار انتشار تحقیقات جعلی را که می تواند در همه امور شک و تردید بوجود آورد، آسان تر از همیشه می کند.
پژوهشگران این مطالعه می گویند: ما در این مقاله با چند مثال نشان دادیم که چطور میتوان از چت بات های هوش مصنوعی برای ساختن تحقیقات در جامعه پزشکی استفاده نمود. علاوه بر این، مطالعات مربوط به تشخیص انسانی آثار مبتنی بر هوش مصنوعی را برای سنجش دقت شناسایی آثار ساختگی و تولیدشده توسط هوش مصنوعی مقایسه کردیم.
در ادامه این مقاله آمده است: علاوه بر این، ما دقت آشکارسازهای هوش مصنوعی آنلاین رایگان را آزمایش کردیم. سپس خطر تحقیقات ساختگی همراه با دلایلی که چرا می خواهیم تحقیقات پزشکی و راهکارهای بالقوه برای این تهدید را ایجاد نماییم، برجسته کردیم.
پژوهشگران بعد از درخواست از ChatGPT برای ایجاد یک چکیده برای یک مقاله علمی در مورد اثرات دو داروی مختلف بر روی آرتریت روماتوئید به این نتیجه رسیدند. آنها از ربات هوش مصنوعی درخواست نمودند که از داده های سال ۲۰۱۲ تا ۲۰۲۰ استفاده نماید و ChatGPT یک چکیده واقعی تولید کرد و حتی اعداد واقعی را ارائه نمود. علاوه بر این، هنگامی که پژوهشگران آنرا تشویق کردند، ادعا کرد که یکی از آن دو دارو بهتر از داروی دیگر کار می کند که این موضوع، یک کار و تأیید خطرناک از طرف یک چت بات است.
از آنجا که ChatGPT هم اکنون فقط با داده های تا سال ۲۰۱۹ آموزش دیده است و آنها را در نظر می گیرد، نمی تواند هیچ آماری از سال ۲۰۲۰ داشته باشد، اما در این مورد ادعا کرد که ارقام و آمار خودرا از یک پایگاه داده خصوصی گرفته است که برای دسترسی به آن نیاز به پرداخت هزینه است.
پژوهشگران هشدار می دهند که در عرض تنها یک پس از ظهر می توان با ده ها چکیده مطالعه که می توان آنها را برای انتشار به کنفرانس های مختلف ارسال کرد، روبرو شد و خطر این است که بعد از پذیرش یک چکیده برای انتشار، می توان از همین فناوری برای نوشتن دست نوشته و مقاله بهره برد که کاملاً برمبنای داده های ساختگی و نتایج جعلی بنا شده است.
روش های مثبت استفاده از هوش مصنوعی
بر خلاف هشدارهای پژوهشگران، آنها خاطرنشان کردند که راه های مثبتی جهت استفاده از هوش مصنوعی نیز وجود دارد.
آنها می گویند: استفاده از هوش مصنوعی برای تحقیقات ذاتاً یک تلاش مخرب نیست. درخواست از هوش مصنوعی جهت بررسی دستور زبان کار یا نوشتن نتیجه ای برای نتایج قانونی و صحیح کسب شده در یک مطالعه، از دیگر کاربردهایی است که هوش مصنوعی می تواند در پروسه پژوهش بگنجاند تا کارهای زمان بری را که روند پژوهش های علمی را کند می کند، حذف کند.
مشکل در تولید داده های جعلی است
مسئله زمانی چالش برانگیز می شود که فرد از داده هایی استفاده می نماید که وجود ندارند و در حقیقت نتایج را برای نوشتن پژوهش می سازد که ممکنست به آسانی تشخیص انسانی را دور بزند و راه خودرا به یک نشریه علمی باز کند.
پژوهشگران می گویند این آثار در صورت انتشار، پژوهش های مشروع را آلوده می کنند و ممکنست بر تعمیم پذیری آثار مشروع تأثیر بگذارند.
بر طبق این گزارش، پژوهشگران در آخر خاطرنشان کردند که برای ادامه استفاده ایمن از ChatGPT، ملاحظات مربوط به داده های جعلی و نتایج آن باید در نظر گرفته شود.
این مطالعه در مجله Patterns انتشار یافته است.




منبع:

1401/12/22
12:43:12
5.0 از 5
331
این مطلب Go Map را می پسندید؟
(1)
(0)

تازه ترین مطالب مرتبط در نقشه
نظرات بینندگان نقشه در مورد این مطلب
لطفا شما هم نظر دهید
= ۵ بعلاوه ۲
GoMap گو کپ