Web Analytics Made Easy - Statcounter
به نقل از «آفتاب»
2024-05-06@02:47:42 GMT

اطلاعات پزشکی قانع‌کننده، اما جعلی!

تاریخ انتشار: ۲۲ اسفند ۱۴۰۱ | کد خبر: ۳۷۳۱۸۸۷۰

اطلاعات پزشکی قانع‌کننده، اما جعلی!

آفتاب‌‌نیوز :

پژوهش‌های جدید نشان می‌دهد که ChatGPT می‌تواند داده‌های پزشکی قانع‌کننده‌ای جعل کند. نویسندگان این مطالعه جدید ادعا می‌کنند که این ابزار هوش مصنوعی، کار انتشار تحقیقات جعلی را که می‌تواند در همه امور شک و تردید ایجاد کند، آسان‌تر از همیشه می‌کند.

پژوهشگران این مطالعه می‌گویند: ما در این مقاله با چند مثال نشان دادیم که چگونه می‌توان از چت‌بات‌های هوش مصنوعی برای ساختن تحقیقات در جامعه پزشکی استفاده کرد.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

علاوه بر این، مطالعات مربوط به تشخیص انسانی آثار مبتنی بر هوش مصنوعی را برای سنجش دقت شناسایی آثار ساختگی و تولیدشده توسط هوش مصنوعی مقایسه کردیم.

در ادامه این مقاله آمده است: علاوه بر این، ما دقت آشکارسازهای هوش مصنوعی آنلاین رایگان را آزمایش کردیم. سپس خطر تحقیقات ساختگی همراه با دلایلی که چرا می‌خواهیم تحقیقات پزشکی و راه حل‌های بالقوه برای این تهدید را ایجاد کنیم، برجسته کردیم.

پژوهشگران پس از درخواست از ChatGPT برای ایجاد یک چکیده برای یک مقاله علمی در مورد اثرات دو داروی مختلف بر روی آرتریت روماتوئید به این نتیجه رسیدند. آنها از ربات هوش مصنوعی درخواست کردند که از داده‌های سال ۲۰۱۲ تا ۲۰۲۰ استفاده کند و ChatGPT یک چکیده واقعی تولید کرد و حتی اعداد واقعی را ارائه کرد. علاوه بر این، هنگامی که پژوهشگران آن را تشویق کردند، ادعا کرد که یکی از آن دو دارو بهتر از داروی دیگر کار می‌کند که این موضوع، یک کار و تأیید خطرناک از سوی یک چت‌بات است.

از آنجایی که ChatGPT در حال حاضر فقط با داده‌های تا سال ۲۰۱۹ آموزش دیده است و آنها را در نظر می‌گیرد، نمی‌تواند هیچ آماری از سال ۲۰۲۰ داشته باشد، اما در این مورد ادعا کرد که ارقام و آمار خود را از یک پایگاه داده خصوصی گرفته است که برای دسترسی به آن نیاز به پرداخت هزینه است.

پژوهشگران هشدار می‌دهند که در عرض تنها یک بعد از ظهر می‌توان با ده‌ها چکیده مطالعه که می‌توان آنها را برای انتشار به کنفرانس‌های مختلف ارسال کرد، روبرو شد و خطر این است که پس از پذیرش یک چکیده برای انتشار، می‌توان از همین فناوری برای نوشتن دست نوشته و مقاله استفاده کرد که کاملاً بر اساس داده‌های ساختگی و نتایج جعلی بنا شده است.

روش‌های مثبت استفاده از هوش مصنوعی
بر خلاف هشدارهای پژوهشگران، آنها خاطرنشان کردند که راه‌های مثبتی برای استفاده از هوش مصنوعی نیز وجود دارد.

آنها می‌گویند: استفاده از هوش مصنوعی برای تحقیقات ذاتاً یک تلاش مخرب نیست. درخواست از هوش مصنوعی برای بررسی دستور زبان کار یا نوشتن نتیجه‌ای برای نتایج قانونی و صحیح کسب شده در یک مطالعه، از دیگر کاربردهایی است که هوش مصنوعی می‌تواند در فرآیند پژوهش بگنجاند تا کارهای زمان‌بری را که روند پژوهش‌های علمی را کند می‌کند، حذف کند.

مشکل در تولید داده‌های جعلی است

مسئله زمانی چالش‌برانگیز می‌شود که فرد از داده‌هایی استفاده می‌کند که وجود ندارند و در واقع نتایج را برای نوشتن پژوهش می‌سازد که ممکن است به راحتی تشخیص انسانی را دور بزند و راه خود را به یک نشریه علمی باز کند.

پژوهشگران می‌گویند این آثار در صورت انتشار، پژوهش‌های مشروع را آلوده می‌کنند و ممکن است بر تعمیم‌پذیری آثار مشروع تأثیر بگذارند.

بر اساس این گزارش، پژوهشگران در پایان خاطرنشان کردند که برای ادامه استفاده ایمن از ChatGPT، ملاحظات مربوط به داده‌های جعلی و پیامدهای آن باید در نظر گرفته شود.

منبع: خبرگزاری ایسنا

منبع: آفتاب

کلیدواژه: اطلاعات پزشکی هوش مصنوعی ChatGPT هوش مصنوعی

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت aftabnews.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «آفتاب» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۳۱۸۸۷۰ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

کلاهبرداری یک میلیاردی با پیامک جعلی ثنا

بی‌دقتی یک شهروند در بافق منجر به کلاهبرداری یک میلیارد ریالی از وی با پیامک جعلی ثنا قوه قضائیه شد. - اخبار استانها -

به گزارش خبرگزاری تسنیم از یزد، در طول سال‌های گذشته بارها و بارها از سوی نیروی انتظامی، قوه قضائیه و برخی دیگر از نهادها پیامک‌های هشدارآمیزی مبنی بر ضرورت هوشیاری در برابری فریب‌های کلاهبرداران مجازی و پیامکی صادر شده است.

در این پیام‌‌های هشدار که به صورت منظم برای مخاطبان ارسال می‌شود، سرشماره‌های رسمی از سوی قوه قضائیه و نیروی انتظامی اعلام شده و تاکید صورت گرفته که پیامک از هر شماره غیر از شماره‌های اعلامی کلاهبرداری است.

با این وجود اما همچنان خبرهایی به گوش می‌رسد مبنی بر اینکه افرادی فریب چنین پیام‌هایی را خورده‌اند و کلاهبرداران توانسته‌اند از آنها کلاهبرداری کنند.

از جمله این فریب‌ها، شخصی است که در یزد با پیامک جعلی ثنا قوه قضائیه روبرو می‌شود و بدون توجه و دقت لازم، یک میلیارد ریال را به کلاهبرداران می‌سپارد.

فرمانده انتظامی شهرستان بافق در این رابطه از کلاهبرداری یک میلیارد ریالی با پیامک جعلی ثنا قوه قضائیه از شماره شخصی خبر داد و اظهار داشت: انتظار می‌رود شهروندان دقت بیشتری در این زمینه داشته باشند.

سرهنگ شهرام طولابی‌نژاد افزود: با شکایت فردی درخصوص برداشت غیرمجاز مبلغ یک میلیارد ریال از حسابش، مأموران پلیس فتا شهرستان بافق موضوع را در دستورکار قرار دادند.

طولابی‌نژاد تصریح کرد: با تحقیق از مالباخته مشخص شد که از شماره شخصی، پیامک جعلی ثنا قوه قضائیه برایش ارسال شده و او نیز وارد لینک جعلی شده و اطلاعات کارت بانکی خود را وارد و مبلغ یک میلیارد ریال از حسابش به صورت غیرمجاز برداشته شده است.

این مقام انتظامی ادامه داد: با استعلامات و پیگیری‌های صورت گرفته توسط پلیس فتا، حساب مقصد شناسایی و بلافاصله مسدود و کلیه وجوه به حساب شاکی بازگردانده شد.

فرمانده انتظامی بافق با اشاره به اینکه در این خصوص پرونده تشکیل و جهت رسیدگی به دادسرا ارسال شد، خاطرنشان کرد: شهروندان باید دقت لازم را داشته باشند و به لینک‌های ناشناس و لینک‌هایی که از شماره شخصی برای آنها ارسال می‌شود وارد نشوند.

با وجودی که کلاهبرداران شگردهای خود را هر روز متفاوت می‌کنند اما در صورتی که شهروندان هشدارهای انجام شده از سوی دستگاه‌های نظامی و انتظامی را جدی گرفته و به آن عمل کنند قطعا هیچ زمانی به دام کلاهبرداری‌هایی از این دست نمی‌افتند.

انتهای پیام/781/.

دیگر خبرها

  • هوش مصنوعی یک ابزار کمکی است و جایگزین پزشک نمی‌شود
  • هوش مصنوعی جایگزین پزشک نمی‌شود
  • شهروندان مراقب پیامک های جعلی باشند
  • چرا پاسخ سخن‌گوی شورای نگهبان درباره رد صلاحیت رییس جمهور پیشین قانع کننده نیست؟
  • آجر شدن کار پزشکان قلابی در رشت
  • صهیونیسم «بت پوشالین» عصر جدید است/ رژیمی جعلی و نسل کش است
  • (ویدئو) تصاویر بارش ماهی در یاسوج جعلی است
  • ۵۸۳ استان فارسی برای کسب مدرک تخصصی حفظ قرآن کریم آزمون دادند
  • کلاهبرداری یک میلیاردی با پیامک جعلی ثنا
  • گردهمایی جامعه جراحان ایران در تهران/ تبادل اطلاعات علمی