چرا دانشمندان بیش از حد به هوش مصنوعی اعتماد دارند؟
تاریخ انتشار: ۴ فروردین ۱۴۰۳ | کد خبر: ۳۹۹۹۷۸۵۶
دانشمندان به طور فزایندهای از فناوری هوش مصنوعی در زمینههای مختلف استفاده میکنند. بهرهگیری از هوش مصنوعی از ایجاد آزمایشگاههای «خودگردان» که در آن رباتها و الگوریتمها برای طراحی و اجرای آزمایشها با یکدیگر همکاری میکنند تا جایگزین کردن شرکتکنندگان انسانی در مطالعات علوم اجتماعی با رباتها پیش رفته است.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
با این همه، اشکالات متعددی در مورد سیستمهای هوش مصنوعی مطرح شده است. به عنوان مثال، هوش مصنوعی مولد مانند چتجیپیتی (ChatGPT) تمایل دارند اطلاعات ساختگی یا اصطلاحاً «توهم» فراهم کنند. این در حالی است که عملکرد درونی سیستمهای یادگیری ماشینی مبهم و ناشناخته مانده است.
به تازگی مقالهای با عنوان «هوش مصنوعی و توهم ادراک در پژوهش علمی» در مجلۀ نیچر منتشر شده است که همین نگرانیها را برجسته میکند. به گفتۀ نویسندگان این مقاله، محققان ممکن است سیستمهای هوش مصنوعی را از نظر عینیت، بهرهوری و درک مفاهیم پیچیده، دارای قابلیتهای مافوق بشری بدانند. این تصور میتواند محققان را به نادیده گرفتن محدودیتهای این ابزارها سوق دهد، که به طور بالقوه دامنۀ تحقیقات علمی را محدود میکند یا به اشتباه توصهم ادراک را در کاربر ایجاد میکند.
نویسندگان بر اهمیت ارزیابی این خطرات تأکید میکنند، بهویژه در زمانۀ کنونی که برنامههای کاربردی هوش مصنوعی هنوز در مراحل اولیه خود هستند. آنها هشدار میدهند که اگر ابزارهای هوش مصنوعی در فرآیند تحقیق جایگاه ثابتی پیدا کنند، پرداختن به این مسائل بسیار چالشبرانگیزتر نیز میشود. هدف از این مقاله آن است که از هم اکنون به دانشمندان هشدار دهد تا خطرات مربوط به استفاده از سیستمهای هوش مصنوعی را در نظر بگیرند.
نویسندگان برای این استدلالهای خود بر حدود ۱۰۰ مقاله (شامل مقالههای علمی منتشر شده، مقالات در انتظار انتشار، مجموعه مقالات کنفرانسها و کتابهایی که عمدتاً در پنج سال گذشته منتشر شدهاند) بررسیهای جامعی انجام دادند. آنها از دل مقالههای علمی بررسی شده رویکردهای مختلفی به تواناییهای هوش مصنوعی یافتهاند.
بعضی هوش مصنوعی را شبیه به نوعی اوراکل یا پیشگو میبینند: محققان میبینند که ابزارهای هوش مصنوعی میتوانند به گونهای خستگیناپذیر مقالات علمی را بخوانند و هضم کنند و بنابراین ادبیات علمی را جامعتر از انسان میفهمند. در دیدگاه دیگر، هوش مصنوعی همچون داور نگریسته میشود. هم در اوراکل و هم در دیدگاه داور، تصور میشود که هوش مصنوعی به شیوهای عینیتر از انسانها میتواند یافتههای علمی را ارزیابی کند، زیرا احتمال کمی دارد که از ادبیات علمی برای حمایت از یک فرضیه مرجح یا طرفداری از گروههای خاص استفاده کند. در دیدگاه سوم، هوش مصنوعی نوعی ریاضیدان محسوب میشود. به نظر میرسد ابزارهای هوش مصنوعی در تجزیه و تحلیل مجموعه دادههای گسترده و پیچیده از محدودیتهای ذهن انسان رنج نمیبرند و توان تحلیل ریاضیاتی دقیقی دارند. در مورد چهارم، هوش مصنوعی به عنوان نوعی جانشین مطرح میشود. ابزارهای هوش مصنوعی دادههایی را شبیهسازی میکنند که به دست آوردن آنها بسیار دشوار یا پیچیده است.
با این حال، نویسندگان این مقاله خطرات بالقوه ناشی از این دیدگاهها را برجسته میکنند و مثلاً هشدار میدهند که دانشمندان نباید دچار توهم عمق تبیینی یا توهم وسعت اکتشافی شوند. آنها نسبت به اتکای بیش از حد به ابزارهای هوش مصنوعی برای تولید دانش و انجام آزمایش هشدار میدهند و بر اهمیت حفظ یک رویکرد متعادل در تحقیق تأکید میکنند.
در پایان، به دانشمندانی که قصد استفاده از فناوری هوش مصنوعی را دارند، توصیه میشود که این خطرات را به دقت در نظر بگیرند و استراتژیهایی برای کاهش آنها اتخاذ کنند. برای جامعه علمی، از جمله محققان، سرمایهگذاران، و ویراستاران مجلات، بسیار مهم است که با نگاهی انتقادی به استفاده از هوش مصنوعی بپردازند و اطمینان حاصل کنند که طیف متنوعی از دیدگاهها و روشها در تلاشهای تحقیقاتی حفظ میشوند. با اذعان به خطرات و مزایای مرتبط با استفاده از هوش مصنوعی، محققان میتوانند تصمیمات آگاهانه بگیرند و از دامهای احتمالی در فعالیتهای علمی خود جلوگیری کنند.
منبع: آنا
باشگاه خبرنگاران جوان وبگردی وبگردیمنبع: باشگاه خبرنگاران
کلیدواژه: هوش مصنوعی فناوری تکنولوژی ابزار های هوش مصنوعی هوش مصنوعی ابزار ها
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.yjc.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «باشگاه خبرنگاران» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۹۹۹۷۸۵۶ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
ایران رتبه ۱۷ هوش مصنوعی را در جهان دارد
معاون علمی، فناوری واقتصاد دانش بنیان رییس جمهوری از رتبه هفدهم ایران در زمینه هوش مصنوعی در جهان خبر داد. - اخبار اجتماعی -
به گزارش خبرنگار اجتماعی خبرگزاری تسنیم، نشست خبری سالیانه دکتر روح الله دهقانی معاون علمی، فناوری واقتصاد دانش بنیان رییس جمهوری در محل معاونت علمی برگزار شد.
دکتر دهقانی در ابتدای این نشست خبری اظهار کرد: سال گذشته یک گفتگوها و تعاملات زیادی انجام شد تا یک مرکز ملی توسعه هوش مصنوعی و شورای راهبری هوش مصنوعی تشکیل شود. ما مدل های مختلفی را از کشورهای دیگر بررسی کردیم و با دهها ساعت جلسه توسط متخصصان حوزه هوش مصنوعی به این نتیجه رسیدیم که مرکز ملی هوش مصنوعی داشته باشیم که شامل نظارت، تنظیمگری و ... است.
وی گفت: در اسفندماه سال گذشته مرکز ملی هوش مصنوعی تأسیس شد و اعضای شورای ملی راهبری هوش مصنوعی معرفی شدند. و جلسات متعددی با سرمایهگذاران دولتی و صندوق های بزرگ کشور انجام شد و یک صندوق توسعه هوش مصنوعی تشکیل شد و این صندوق با سرمایهگذاری 10 هزار میلیاردی برنامهریزی شد.
دهقانی ادامه داد: کارهای عملیاتی زیادی انجام شده و یک مرکز ملی در نخستین گام یک اپراتور هوش مصنوعی بالا بیاورد که خدمات مختلفی از جمله دیتاسنتر بزرگ و کتابخانههای زبان تصویری ارایه میکند.
معاون علمی رییس جمهور گفت: ما از نظر دانش فنی و تولید مقالات علمی رتبه 17 را داریم اما در حوزه کاربردها رتبه 70 یا 80 را دارد که به خاطر نبود زیرساختها است.
وی ادامه داد: این مرکز زیر نظر ریاست جمهوری تشکیل میشود. معاونت علمی وظیفه حمایت از توسعه فناوری را دار. ستاد توسعه فناوریهای هوش مصنوعی وظیفه حمایت از هوش مصنوعی را دارد.
نقشآفرینی "مراکز نوآوری" در حفظ قانون جهش دانشبنیاندهقانی گفت: امسال تا آخر سال به چندصد GPU دسترسی پیدا میکنیم البته بحث های تحریمی شدیدی در این موضوع وجود دارد و ما نیز از همه دانشگاهها و اساتید دعوت میکنیم تا در اینجا شرکت کنند.
انتهای پیام/