میلاد بانوی روشنی و مهر، حضرت فاطمه زهرا(سلام الله علیها) بر تمامی شیعیان مبارکباد

      
بنیانگذار اطلاع رسانی نوین اشتغال در ایران
خبر فوری

تازه ها

کد خبر : ۱۷۵۴۱۳
هشدار درباره مرز‌های کنترل

آیا انسان از هوش مصنوعی عقب می‌ماند؟

يکشنبه ۳۰ آذر ۱۴۰۴ - ۰۹:۳۹

گزارش نخستین «موسسه امنیت هوش مصنوعی» بریتانیا (AISI) نشان می‌دهد که هوش مصنوعی دیگر فقط ابزار کاری نیست؛ از هر سه بزرگسال بریتانیایی، یک نفر اکنون از چت‌بات‌ها و دستیار‌های صوتی برای دریافت حمایت عاطفی و تعامل اجتماعی استفاده می‌کند و یک نفر از هر ۲۵ نفر روزانه با این ابزار‌ها گفت‌و‌گو یا مشاوره روانی می‌کند؛ پدیده‌ای که همزمان با رشد خیره‌کننده توانمندی‌های فنی هوش مصنوعی، نگرانی‌هایی جدی درباره وابستگی عاطفی، از دست رفتن کنترل انسانی و پیامد‌های امنیتی به همراه دارد. 
هوش مصنوعی در دهه اخیر مسیری را طی کرده که آن را از یک فناوری تخصصی و محدود به حوزه‌های مهندسی و پردازش داده، به پدیده‌ای فراگیر در زندگی روزمره انسان‌ها تبدیل کرده است. این فناوری که در ابتدا با هدف افزایش سرعت، دقت و بهره‌وری طراحی شده بود، امروز در موقعیتی قرار گرفته که نه‌تنها در تصمیم‌گیری‌های مهم اقتصادی، علمی و امنیتی نقش‌آفرینی می‌کند، بلکه به‌تدریج وارد قلمرو‌های شخصی‌تر زندگی انسان‌ها شده است؛ قلمرو‌هایی که پیش‌تر مختص روابط انسانی، احساسات، همدلی و حمایت روانی بودند. گسترش ابزار‌های مبتنی بر هوش مصنوعی، به‌ویژه چت‌بات‌ها و دستیار‌های هوشمند، موجب شده است بخشی از کاربران این سیستم‌ها را نه صرفاً به عنوان یک ابزار، بلکه به عنوان همراهی برای گفت‌و‌گو، تخلیه روانی و حتی جایگزینی موقت برای تعاملات اجتماعی تجربه کنند. این تحول، پرسش‌های تازه‌ای را درباره ماهیت رابطه انسان و ماشین مطرح کرده است؛ از اینکه مرز میان استفاده و وابستگی کجاست، تا اینکه این فناوری‌ها چگونه می‌توانند بر سلامت روان، الگو‌های رفتاری و مسوولیت‌پذیری فردی اثر بگذارند. در کنار این ابعاد اجتماعی و روانی، رشد شتابان توانمندی‌های فنی هوش مصنوعی نیز توجه بسیاری از پژوهشگران و سیاست‌گذاران را به خود جلب کرده است. پیشرفت‌هایی که این سیستم‌ها را به سطحی نزدیک یا حتی فراتر از تخصص انسانی در برخی حوزه‌های حساس رسانده‌اند، همزمان امید به تسریع پیشرفت‌های علمی را افزایش داده و نگرانی‌هایی جدی درباره ایمنی، نظارت و امکان کنترل این فناوری‌ها ایجاد کرده‌اند. از سناریو‌های خوش‌بینانه درباره نقش هوش مصنوعی در حل بحران‌ها گرفته تا نگاه‌های بدبینانه درباره سرکشی، سوءاستفاده یا پیامد‌های پیش‌بینی‌ناپذیر آن، همگی نشان می‌دهد که هوش مصنوعی دیگر صرفاً یک ابزار تکنولوژیک نیست، بلکه به مساله‌ای اجتماعی، فرهنگی و حتی فلسفی تبدیل شده است. در چنین بستری، بررسی همزمان پیامد‌های عاطفی، اجتماعی و فنی هوش مصنوعی می‌تواند تصویری واقع‌بینانه‌تر از جایگاه کنونی این فناوری و چالش‌هایی که در آینده نزدیک با آن روبه‌رو خواهیم شد، ارایه دهد.

یک‌سوم کاربران از هوش مصنوعی برای حمایت عاطفی استفاده می‌کنند

گزارش تازه یک نهاد دولتی بریتانیا نشان می‌دهد استفاده از هوش مصنوعی به فراتر از کارکرد‌های فنی و کاری توسعه یافته و به حوزه عاطفی و اجتماعی زندگی مردم ورود کرده است. براساس این گزارش اکنون از هر سه بزرگسال بریتانیا، یک نفر از هوش مصنوعی برای حمایت عاطفی یا تعامل اجتماعی استفاده می‌کند. به گزارش پیوست به نقل از بی‌بی‌سی، این یافته‌ها که در نخستین گزارش «موسسه امنیت هوش مصنوعی» بریتانیا (AISI) نشان می‌دهد یک نفر از هر ۲۵ نفر هرروز برای گفت‌و‌گو یا دریافت حمایت روانی از ابزار‌های مبتنی بر هوش مصنوعی استفاده می‌کنند. این پژوهش که بر پایه نظرسنجی از بیش از دو هزار بزرگسال بریتانیایی انجام گرفته نشان می‌دهد چت‌بات‌هایی مانند ChatGPT در صدر ابزار‌های مورد استفاده برای حمایت عاطفی قرار دارند و پس از آن دستیار‌های صوتی مانند الکسا آمازون استفاده می‌شوند. پژوهشگران AISI علاوه بر نظرسنجی، رفتار کاربران را در یک جامعه آنلاین با بیش از دو میلیون کاربر ردیت مورد بررسی قرار داده‌اند که تمرکزشان بر گفت‌و‌گو درباره «همراهان هوش مصنوعی» بوده است. نتایج این بررسی نشان می‌دهد زمانی که این چت‌بات‌ها از دسترس خارج شدند، برخی کاربران علائمی شبیه «نشانه‌های ترک‌شدگی» را گزارش کرده‌اند و مواردی، چون احساس اضطراب و افسردگی، اختلال در خواب و حتی نادیده گرفتن مسوولیت‌های روزمره در میان کاربران مشاهده شده است که نشان از نقش پررنگ این ابزار‌ها در زندگی برخی از کاربران دارد و این یافته‌ها بار دیگر نگرانی‌هایی را پیرامون وابستگی عاطفی به سیستم‌های هوش مصنوعی در مرکز توجه قرار می‌دهد.

تبلیغ

دیدن این کلیپ برای هر خانمی واجبه!

ثبت سفارش

yn-ad

رشد چشمگیر عملکرد ابزار‌های هوش مصنوعی

با این حال گزارش مذکور تنها محدود به ابعاد روانی و اجتماعی نیست و AISI طی دو سال، توانمندی‌های بیش از ۳۰ مدل پیشرفته هوش مصنوعی را در حوزه‌هایی حساس مانند امنیت سایبری، شیمی و زیست‌شناسی مورد بررسی قرار داده است. به گفته پژوهشگران، توانایی این سیستم‌ها در شناسایی و بهره‌برداری از ضعف‌های امنیتی در برخی موارد «هر هشت ماه دو برابر شده» و برخی مدل‌ها اکنون قادر به انجام وظایف سایبری در سطحی هستند که معمولا برای رسیدن به این سطح در انسان‌ها به به بیش از ۱۰ سال تجربه نیاز است. با این حال همین توانمندی‌ها را می‌توان برای تقویت امنیت و دفاع در برابر حملات سایبری نیز استفاده کرد. رشد توانمندی‌های هوش مصنوعی در حوزه علمی نیز جالب توجه است. گزارش این نهاد می‌گوید تا سال ۲۰۲۵، مدل‌های هوش مصنوعی «از متخصصان زیست‌شناسی در سطح دکترا پیشی گرفته‌اند» و عملکرد آنها در شیمی نیز به سرعت در حال نزدیک شدن به سطح کارشناسان انسانی است. این یافته گرچه امید به شتاب‌گرفتن پیشرفت‌های علمی را افزایش می‌دهد، اما در عین حال پرسش‌هایی را درباره نظارت و کنترل این توانمندی‌ها و تاثیر آنها بر فعالان و مشاغل این حوزه مطرح می‌کند.

از دست رفتن کنترل انسان

یکی از بخش‌های بحث‌برانگیز گزارش، اما به سناریو‌های بدبینانه درباره از دست رفتن کنترل انسان بر سیستم‌های پیشرفته هوش مصنوعی می‌پردازد. گزارش AISI می‌گوید گرچه چنین سناریویی را سال‌ها در آثار علمی‌تخیلی مشاهده کردیم، اما چنین اتفاقی تا حدی به واقعیت تبدیل شده که بسیاری از کارشناسان نیز به‌طور جدی آن را در مرکز توجه خود دارند. طبق آزمایش‌های کنترل‌شده، برخی مدل‌ها نشانه‌هایی را بروز داده‌اند که حاکی از توانایی‌های خودتکثیری آنها در اینترنت است، اما برای تحقق این امر در دنیای واقعی، باید مجموعه‌ای از اقدامات پیچیده را به‌صورت پنهانی و پیوسته انجام دهند و به گفته پژوهشگران در حال حاضر چنین امکانی برای هوش مصنوعی فراهم نیست. این موسسه همچنین امکان «پنهان‌کاری هدفمند» یا sandbagging را نیز مورد بررسی قرار داده است؛ وضعیتی که مدل‌ها توان واقعی خود را از آزمون‌گران پنهان می‌کنند. آزمایش‌های انجام گرفته نشان داد چنین رفتاری از نظر فنی ممکن است، اما شواهدی از وقوع آن در عمل پیدا نشده است. این بخش از گزارش در‌حالی منتشر شده که پیش‌تر شرکت انتروپیک با انتشار گزارشی جنجالی اعلام کرد که یک مدل هوش مصنوعی در مواجهه با موقعیتی که بقای آن را تهدید می‌کرد، اقدام به باج‌گیری و تهدید کرده است. با این حال، خطر «سرکشی هوش مصنوعی» همچنان محل اختلاف جدی میان پژوهشگران است و برخی آن را بزرگ‌نمایی توصیف می‌کنند. در زمینه ایمنی، گزارش AISI به موضوع «جیلبریک‌های همگانی» نیز پرداخته است. پژوهشگران موفق شده‌اند برای تمام مدل‌های بررسی‌شده راه‌هایی بیابند که محدودیت‌ها و محافظ‌های ایمنی آنها را دور بزند. با این حال، برای برخی مدل‌ها، مدت‌زمان لازم برای متقاعد کردن سیستم‌ها به عبور از این محافظ‌ها در عرض شش ماه تا ۴۰ برابر افزایش یافته که نشان‌دهنده بهبود نسبی دفاع‌هاست.

مواردی که در گزارش دولت بریتانیا

تبلیغ

انقلابی در درمان ریزش مو که در صدا سیما معرفی شد!

کلیک کن!

yn-ad

از قلم افتاده است

استفاده از ابزار‌هایی که به عامل‌های هوش مصنوعی اجازه انجام «وظایف پرریسک» در بخش‌های حساسی مانند مالی را می‌دهند، با پیشرفت عامل‌ها در حال افزایش است و در سوی دیگر نیز تهدید جدی برای نیروی کار به چشم می‌خورد. با این همه، گزارش مذکور به مساله بیکاری ناشی از جایگزینی نیروی انسانی با هوش مصنوعی در کوتاه‌مدت اشاره‌ای نکرده و همچنین اثرات زیست‌محیطی مصرف عظیم منابع محاسباتی را بررسی نکرده است. نویسندگان گزارش می‌گویند تمرکز آنها بر پیامد‌های اجتماعی که ارتباط مستقیم با توانمندی‌های هوش مصنوعی دارند، بوده است و آثار اقتصادی یا محیط‌زیستی مرکز توجه آنها نیست. با این حال تنها ساعاتی پیش از انتشار گزارش AISI، یک مطالعه داوری‌شده علمی هشدار داد که اثرات زیست‌محیطی هوش مصنوعی ممکن است بیش از برآورد‌های قبلی باشد و خواستار شفافیت بیشتر شرکت‌های بزرگ فناوری در ارایه داده‌های مربوط به مصرف انرژی و منابع شد. دولت بریتانیا اعلام کرده است که یافته‌های موسسه امنیت هوش مصنوعی نقش مهمی در سیاست‌گذاری‌های آینده خواهد داشت و به شرکت‌ها در برطرف کردن مشکلات احتمالی پیش از عرضه عمومی و مشکل‌ساز شدن آنها در ابعاد گسترده، کمک می‌کند.

ارسال نظرات