اطلاعات پزشکی قانعکننده، اما جعلی!
تاریخ انتشار: ۲۲ اسفند ۱۴۰۱ | کد خبر: ۳۷۳۱۸۸۷۰
آفتابنیوز :
پژوهشهای جدید نشان میدهد که ChatGPT میتواند دادههای پزشکی قانعکنندهای جعل کند. نویسندگان این مطالعه جدید ادعا میکنند که این ابزار هوش مصنوعی، کار انتشار تحقیقات جعلی را که میتواند در همه امور شک و تردید ایجاد کند، آسانتر از همیشه میکند.
پژوهشگران این مطالعه میگویند: ما در این مقاله با چند مثال نشان دادیم که چگونه میتوان از چتباتهای هوش مصنوعی برای ساختن تحقیقات در جامعه پزشکی استفاده کرد.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
در ادامه این مقاله آمده است: علاوه بر این، ما دقت آشکارسازهای هوش مصنوعی آنلاین رایگان را آزمایش کردیم. سپس خطر تحقیقات ساختگی همراه با دلایلی که چرا میخواهیم تحقیقات پزشکی و راه حلهای بالقوه برای این تهدید را ایجاد کنیم، برجسته کردیم.
پژوهشگران پس از درخواست از ChatGPT برای ایجاد یک چکیده برای یک مقاله علمی در مورد اثرات دو داروی مختلف بر روی آرتریت روماتوئید به این نتیجه رسیدند. آنها از ربات هوش مصنوعی درخواست کردند که از دادههای سال ۲۰۱۲ تا ۲۰۲۰ استفاده کند و ChatGPT یک چکیده واقعی تولید کرد و حتی اعداد واقعی را ارائه کرد. علاوه بر این، هنگامی که پژوهشگران آن را تشویق کردند، ادعا کرد که یکی از آن دو دارو بهتر از داروی دیگر کار میکند که این موضوع، یک کار و تأیید خطرناک از سوی یک چتبات است.
از آنجایی که ChatGPT در حال حاضر فقط با دادههای تا سال ۲۰۱۹ آموزش دیده است و آنها را در نظر میگیرد، نمیتواند هیچ آماری از سال ۲۰۲۰ داشته باشد، اما در این مورد ادعا کرد که ارقام و آمار خود را از یک پایگاه داده خصوصی گرفته است که برای دسترسی به آن نیاز به پرداخت هزینه است.
پژوهشگران هشدار میدهند که در عرض تنها یک بعد از ظهر میتوان با دهها چکیده مطالعه که میتوان آنها را برای انتشار به کنفرانسهای مختلف ارسال کرد، روبرو شد و خطر این است که پس از پذیرش یک چکیده برای انتشار، میتوان از همین فناوری برای نوشتن دست نوشته و مقاله استفاده کرد که کاملاً بر اساس دادههای ساختگی و نتایج جعلی بنا شده است.
روشهای مثبت استفاده از هوش مصنوعی
بر خلاف هشدارهای پژوهشگران، آنها خاطرنشان کردند که راههای مثبتی برای استفاده از هوش مصنوعی نیز وجود دارد.
آنها میگویند: استفاده از هوش مصنوعی برای تحقیقات ذاتاً یک تلاش مخرب نیست. درخواست از هوش مصنوعی برای بررسی دستور زبان کار یا نوشتن نتیجهای برای نتایج قانونی و صحیح کسب شده در یک مطالعه، از دیگر کاربردهایی است که هوش مصنوعی میتواند در فرآیند پژوهش بگنجاند تا کارهای زمانبری را که روند پژوهشهای علمی را کند میکند، حذف کند.
مشکل در تولید دادههای جعلی است
مسئله زمانی چالشبرانگیز میشود که فرد از دادههایی استفاده میکند که وجود ندارند و در واقع نتایج را برای نوشتن پژوهش میسازد که ممکن است به راحتی تشخیص انسانی را دور بزند و راه خود را به یک نشریه علمی باز کند.
پژوهشگران میگویند این آثار در صورت انتشار، پژوهشهای مشروع را آلوده میکنند و ممکن است بر تعمیمپذیری آثار مشروع تأثیر بگذارند.
بر اساس این گزارش، پژوهشگران در پایان خاطرنشان کردند که برای ادامه استفاده ایمن از ChatGPT، ملاحظات مربوط به دادههای جعلی و پیامدهای آن باید در نظر گرفته شود.
منبع: خبرگزاری ایسنامنبع: آفتاب
کلیدواژه: اطلاعات پزشکی هوش مصنوعی ChatGPT هوش مصنوعی
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت aftabnews.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «آفتاب» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۳۱۸۸۷۰ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
کلاهبرداری یک میلیاردی با پیامک جعلی ثنا
بیدقتی یک شهروند در بافق منجر به کلاهبرداری یک میلیارد ریالی از وی با پیامک جعلی ثنا قوه قضائیه شد. - اخبار استانها -
به گزارش خبرگزاری تسنیم از یزد، در طول سالهای گذشته بارها و بارها از سوی نیروی انتظامی، قوه قضائیه و برخی دیگر از نهادها پیامکهای هشدارآمیزی مبنی بر ضرورت هوشیاری در برابری فریبهای کلاهبرداران مجازی و پیامکی صادر شده است.
در این پیامهای هشدار که به صورت منظم برای مخاطبان ارسال میشود، سرشمارههای رسمی از سوی قوه قضائیه و نیروی انتظامی اعلام شده و تاکید صورت گرفته که پیامک از هر شماره غیر از شمارههای اعلامی کلاهبرداری است.
با این وجود اما همچنان خبرهایی به گوش میرسد مبنی بر اینکه افرادی فریب چنین پیامهایی را خوردهاند و کلاهبرداران توانستهاند از آنها کلاهبرداری کنند.
از جمله این فریبها، شخصی است که در یزد با پیامک جعلی ثنا قوه قضائیه روبرو میشود و بدون توجه و دقت لازم، یک میلیارد ریال را به کلاهبرداران میسپارد.
فرمانده انتظامی شهرستان بافق در این رابطه از کلاهبرداری یک میلیارد ریالی با پیامک جعلی ثنا قوه قضائیه از شماره شخصی خبر داد و اظهار داشت: انتظار میرود شهروندان دقت بیشتری در این زمینه داشته باشند.
سرهنگ شهرام طولابینژاد افزود: با شکایت فردی درخصوص برداشت غیرمجاز مبلغ یک میلیارد ریال از حسابش، مأموران پلیس فتا شهرستان بافق موضوع را در دستورکار قرار دادند.
طولابینژاد تصریح کرد: با تحقیق از مالباخته مشخص شد که از شماره شخصی، پیامک جعلی ثنا قوه قضائیه برایش ارسال شده و او نیز وارد لینک جعلی شده و اطلاعات کارت بانکی خود را وارد و مبلغ یک میلیارد ریال از حسابش به صورت غیرمجاز برداشته شده است.
این مقام انتظامی ادامه داد: با استعلامات و پیگیریهای صورت گرفته توسط پلیس فتا، حساب مقصد شناسایی و بلافاصله مسدود و کلیه وجوه به حساب شاکی بازگردانده شد.
فرمانده انتظامی بافق با اشاره به اینکه در این خصوص پرونده تشکیل و جهت رسیدگی به دادسرا ارسال شد، خاطرنشان کرد: شهروندان باید دقت لازم را داشته باشند و به لینکهای ناشناس و لینکهایی که از شماره شخصی برای آنها ارسال میشود وارد نشوند.
با وجودی که کلاهبرداران شگردهای خود را هر روز متفاوت میکنند اما در صورتی که شهروندان هشدارهای انجام شده از سوی دستگاههای نظامی و انتظامی را جدی گرفته و به آن عمل کنند قطعا هیچ زمانی به دام کلاهبرداریهایی از این دست نمیافتند.
انتهای پیام/781/.