در گفت وگو با آجاك مطرح شد
استفاده از هوش مصنوعی برای تشخیص تقلب های علمی در ایرانداک
آجاک: به گزارش آجاک، رئیس پژوهشگاه علوم و فناوری اطلاعات ایران اقدامات این پژوهشگاه جهت استفاده از هوش مصنوعی برای تشخیص سوءرفتارهای علمی را شرح داد.
دکتر محمد حسن زاده در گفتگو با ایسنا، در مورد استفاده از هوش مصنوعی برای تشخیص تقلب های علمی و پژوهشی، اظهار داشت: استفاده از هوش مصنوعی ابعاد مختلفی را در بر می گیرد. هوش مصنوعی به مثابه یک پیشرفت فناورانه می تواند در جهت مثبت و سازنده و همینطور منفی و غیرسازنده مورد استفاده قرار گیرد. امروزه هوش مصنوعی امکان خلق آثار با استفاده از فابریکیت کردن یا جعل داده های موجود در فضای اینترنت را فراهم نموده است. این به این معناست که حتی خود شخص امکان دارد در فرایند خلق اثر مشارکت کمتری داشته باشد.
وی در مورد راهکار مواجهه با این مشکل، توضیح داد: برای مواجهه با این مورد دو بُعد مهم پیش روی ماست. اولاً، از هوش مصنوعی برای شناسایی سو استفاده های علمی استفاده نماییم. مسئله دوم پیش روی ایرانداک حرکت به سمت شناسایی آثاری است که از راه هوش مصنوعی خلق می شوند.
رییس پژوهشگاه علوم و فناوری اطلاعات ایران در مورد استفاده از هوش مصنوعی برای شناسایی سو استفاده های علمی، اظهار داشت: ایرانداک همگام با پیشرفت های جهانی، در سال ۱۴۰۱ با رونمایی از نسخه جدید سامانه خود با به کارگیری قابلیت های هوش مصنوعی تغییرات غیر معمول رایج در متون از منظر ساختاری و محتوایی را شناسایی می کند. ازاین رو با کاربست قابلیت های هوشمندی، امکان خیلی از سو استفاده ها در آثار علمی که در ایرانداک همانندجویی می شوند، از بین رفته است.
وی در رابطه با نحوه شناسایی آثاری که با هوش مصنوعی خلق می شوند، توضیح داد: در دنیا، ابزارهایی برای شناسایی این چنین مدارکی درحال شکل گیری است. در ایرانداک هم با شکل دهی هسته های فکری و فناورانه حرکت های خوبی برای همگامی و بهره برداری مناسب از فناوری هوش مصنوعی در این حوزه شروع شده است.
این متخصص علم سنجی تصریح کرد: هر چند پیشگیری و مقابله کامل با تقلب در تهیه آثار علمی با حضور همه عوامل فنی، فرهنگی، آموزشی، نظارتی و غیره حاصل می شود، اما وجود هرکدام از این مؤلفه ها به صورت جداگانه هم به کاهش سو استفاده های احتمالی کمک می نماید.
منبع: acak.ir
این مطلب آجاک را پسندیدید؟
(0)
(0)
تازه ترینهای مرتبط
نظرات بینندگان در این باره