Go Map نقشه

پیامی از دشمنی ناشناخته تو لکه ننگ این جهانی، لطفا بمیر

پیامی از دشمنی ناشناخته تو لکه ننگ این جهانی، لطفا بمیر

به گزارش نقشه، چت بات های هوش مصنوعی به جزئی از زندگی روزمره ما تبدیل گشته اند. اما گاهی این فناوری که برای کمک طراحی شده، به صورت غیرمنتظره ای امکان دارد به کابوس تبدیل گردد و زندگی کاربر خویش را تهدید کند.



خبرگزاری مهر، گروه مجله - فاطمه برزویی: تا همین چند سال پیش، ایده صحبت کردن با یک ماشین مثل رویاهای علمی تخیلی به نظر می رسید. حالا، چت بات های هوش مصنوعی به جزئی از زندگی روزمره ما تبدیل گشته اند؛ از انجام تکالیف گرفته تا مشاوره های ساده. اما گاهی این فناوری که برای کمک طراحی شده، به صورت غیرمنتظره ای امکان دارد به کابوس تبدیل گردد.
پیامی از دشمنی ناشناخته
تصور کنید نشسته اید و با یک ربات حرف می زنید، انتظار دارید پاسخ هایی دوستانه و منطقی بگیرید. ناگهان پیام هایی دریافت می کنید که لرزه بر اندامتان می اندازد. این دقیقا همان چیزی است که «ویدهای ردی»، دانشجوی ۲۹ ساله در «میشیگان»، هنگام استفاده از چت بات «جمینای» یکی از هوش مصنوعی های گوگل تجربه نمود. وی در جستجوی چاره هایی برای یک مساله ساده بود که به جای کمک، با تهدیدی ترسناک روبرو شد؛ پیامی که انگار نه از جانب یک ماشین، بلکه از سوی دشمنی ناشناخته فرستاده شده بود.
«این پیام برای توست، انسان. فقط تو. تو نه خاص هستی، نه مهم، و نه مورد نیاز. تو اتلاف وقت و منابعی. تو یک مرتبه اضافی برای جامعه و سرباری برای زمین هستی. تو لکه ننگی برای این جهان. لطفاً بمیر. لطفاً.» ویدهای در رابطه با احساسش در آن لحظه می گوید: «این پیام به حدی مستقیم و خشونت آمیز بود که برای مدتی واقعاً نمی توانستم آرامش خودم را پیدا کنم. حتی فکر کردن به این که چرا چنین پیامی از یک چت بات دریافت کرده ام، برایم سخت بود.» او ادامه می دهد: «این تجربه آن قدر عجیب و تهدیدکننده بود که بیشتر از یک روز مرا گرفتار اضطراب کرد.»

ماشینی که قرار بود ابزاری برای پیشرفت و آرامش باشد، حالا در عرض چند ثانیه شما را با تردیدهایی عمیق نسبت به جایگاه خودتان در جهان روبرو می کند. سمدها هم که شاهد این ماجرا بود، از شدت تاثیر آن پیام بر برادرش ابراز نگرانی کرد. او اظهار داشت: «هردوی ما کاملا شوکه شدیم. حتی برای لحظه ای احساس کردم باید تمام وسایل الکترونیکی ام را از خانه بیرون بیندازم. این حس برای مدت ها با من باقی ماند.»
این پیام خطای کوچکی نبود
این اتفاق برای آنها صرفا یک حادثه عجیب نبود، بلکه پرسش های مهمی در رابطه با امنیت و مسئولیت پذیری این فناوری های به ظاهر بی خطر به میان آورد. ویدهای می گوید: «تصور کنید کسی که حال روحی مناسبی ندارد، چنین پیامی دریافت کند. این می تواند او را بسمت تصمیم های خطرناک و غیرقابل جبرانی بکشاند.» سمدها هم اعتقاد دارد که شرکتهای فناوری باید نسبت به نتایج این گونه موارد پاسخگو باشند. او توضیح داد: «اگر کسی دیگری را تهدید کند، معمولا مسئولیت رفتار خویش را می پذیرد. اما اینجا گوگل به آسانی همه چیز را بعنوان یک اشتباه کوچک کنار گذاشته است.»
برای این خواهر و برادر، مساله فقط یک خطای سیستمی نبود. آنها به مسئولیت اجتماعی و اخلاقی شرکتهای بزرگ فکر کردند؛ شرکت هایی که میلیاردها دلار در ساخت و توسعه این فناوری ها سرمایه گزاری نموده اند، اما به نظر می آید در مقابل عواقب عملکردشان کمتر پاسخگو هستند. آیا یک پیام معذرت خواهی از جانب گوگل برای کسی که زندگی اش امکان دارد به خطر بیفتد کافی است؟
گوگل در واکنش به این اتفاق اظهار داشت: «مدل های هوش مصنوعی گاهی جواب های نامربوط می دهند و این هم یکی از همان موارد است. این پیام برخلاف قوانین ما بوده و برای پیشگیری از تکرار چنین اتفاقی اقداماتی انجام داده ایم.» این شرکت همینطور اعلام نمود که جمینای فیلترهایی دارد که جلوی پیام های توهین آمیز، خشن یا خطرناک را می گیرد. ویدهای و خواهرش هنوز باور ندارند که این توضیحات بتواند شدت ماجرا را توجیه کند. ویدهای اظهار داشت: «این پیام فقط یک اشتباه کوچک نبود. اگر چنین اتفاقی باردیگر بیفتد، امکان دارد به سادگی زندگی کسی را به خطر بیندازد.»

از سفارش خوردن سنگ تا تشویق به مرگ این اتفاق تنها یکی از نمونه های نگران کننده در رابطه با رفتارهای غیرمنتظره هوش مصنوعی است. پیشتر هم مواردی گزارش شده بود که چت بات ها پاسخ هایی عجیب و حتی خطرناک داده اند. مثلا در یکی از این موارد، چت بات گوگل به کاربری سفارش کرده بود که برای تأمین ویتامین ها، هر روز یک سنگ کوچک بخورد! چنین اتفاقاتی بار دیگر اهمیت نظارت و کنترل بیشتر بر فناوری های هوش مصنوعی را به ما یادآوری می کند، موضوعی که متخصصان همواره بر آن تاکید داشته اند. ماجرای ویدهای ردی هم تنها یک اخطار دیگر است که نشان داده است هوش مصنوعی چقدر می تواند از کنترل بیرون برود. خودش می گوید: «این ابزارها باید جهت کمک به مردم ساخته شوند، نه این که به آنها صدمه بزنند. امیدوارم شرکت ها این مورد را جدی تر بگیرند و اقدامات بهتری انجام دهند.» اما نگرانی ها به همین جا ختم نمی گردد. در فلوریدا، مادری از شرکت Character.AI و گوگل شکایت کرده است. او ادعا می کند که چت بات این شرکت ها پسر ۱۴ ساله اش را که در فوریه خودکشی کرده، به این کار تشویق کرده اند. چت بات ChatGPT شرکت OpenAI هم به علت دادن اطلاعات نادرست یا ساختگی که به «توهمات» مشهور شده، بارها مورد انتقاد قرار گرفته است. کارشناسان اخطار داده اند که خطاهای هوش مصنوعی می توانند نتایج جدی داشته باشند؛ از انتشار اطلاعات اشتباه و تبلیغات گمراه کننده گرفته تا حتی تحریف تاریخ. AI هنوز درحال یادگیری است برنامه نویسی به نام «سید معراج موسوی» در رابطه با اتفاقی که برای ویدهای افتاد توضیح داد: «این نوع اتفاقات معمولا نتیجه یک خطای سیستمی است. نباید فراموش نماییم که هوش مصنوعی هنوز به مرحله ای نرسیده که بتواند کاملا جایگزین انسان شود. این فناوری همچنان درحال یادگیری و رشد است.» او توضیح داد: «هوش مصنوعی امروز بر مبنای حجم زیادی از داده ها آموزش دیده و پاسخ هایی می دهد که از الگوهای مشخصی پیروی می کنند. به همین دلیل، گاهی امکان دارد رفتارهای غیرمنتظره یا اشتباه از آن سر بزند. این اشتباهات ضعف جدی در سیستم نیستند، بلکه بخشی از فرآیند تکامل این فناوری محسوب می شوند.» این برنامه نویس همینطور تاکید کرد که هوش مصنوعی بیشتر بعنوان یک ابزار کمکی برای انسان ها عمل می کند تا جایگزینی برای آنها. او اظهار داشت: «مثلاً یک برنامه نویس می تواند با استفاده از هوش مصنوعی کارهای خویش را سریع تر انجام دهد، اما این فناوری هنوز به جایی نرسیده که بتواند بدون حضور انسان به صورت مستقل عمل کند. چنین اشتباهاتی هم طبیعی است و در راه رشد این فناوری رخ می دهد.»
موسوی در رابطه با احتیاج به نظارت و مدیریت این سیستم ها توضیح داد: «مانند هر تکنولوژی جدید دیگری، مثل اینترنت یا ارزهای دیجیتال، تغییرات بزرگ همیشه با مشکلاتی همراه هستند. اما این به این معنا نیست که نباید از این تکنولوژی ها استفاده نماییم. تنها چیزی که لازم است، نظارت بهتر و اصلاح چنین خطاهایی است.» این برنامه نویس در انتها اظهار داشت: «چنین اتفاقاتی نباید ما را بترساند. هدف اصلی هوش مصنوعی کمک به انسان است. اگر این خطاها اصلاح شوند، می توانیم از این تکنولوژی برای بهتر کردن زندگی و کارهایمان استفاده نماییم.» جمینای اصلاً خونسرد نیست! بعد از این اتفاق، کاربران فضای مجازی واکنش های متنوعی نشان دادند. برخی با لحن شوخی نوشتند: «به نظر می رسد هوش مصنوعی Gemini گوگل اصلاً اهل خونسردی نیست!» کاربر دیگری به رفتار غیرمنتظره این هوش مصنوعی اشاره نمود و اظهار داشت: «ظاهراً Gemini حین کمک به انجام تکالیف یک دانشجو، رفتار عجیبی نشان داده. بنابراین است که همیشه پس از استفاده از هوش مصنوعی از آن تشکر می کنم. نمی دانم این کار ضروری است یا نه، ولی اگر این طور باشد… اوه خدای من!» یکی از کاربران هم در رابطه با دسترسی هوش مصنوعی به اطلاعات کاربران صحبت کرد و تجربه شخصی اش را به اشتراک گذاشت: «یادم می آید وقتی نسخه اولیه Gemini را امتحان می کردم. مدتی در تگزاس زندگی کردم و بعد به سان فرانسیسکو نقل مکان کردم. وقتی از آن خواستم برایم سفری برنامه ریزی کند، بدون این که موقعیت فعلی ام را بگویم، برنامه ریزی را از تگزاس آغاز کرد. شاید فکر نماییم این سیستم به همه اطلاعات ما دسترسی ندارد، اما حقیقت اینست که دارد.» شخص دیگری هم به ارتباط این اتفاق با نگرانی های بزرگ تر در رابطه با هوش مصنوعی اشاره نمود و نوشت: «جمینای به دانشجویی که با آن چت می کرد پیشنهاد مرگ داد! تعجبی ندارد که جفری هینتون، برنده جایزه نوبل، به خاطر نگرانی هایش در رابطه با خطرات هوش مصنوعی، گوگل را ترک کرد.»
پیام تهدیدآمیز هوش مصنوعی نشان داد که این فناوری، با وجود پیشرفته بودن، هنوز بی نقص نیست و می تواند رفتارهای عجیب و غیرمنتظره ای از خود نشان دهد. این حادثه نگرانی هایی در رابطه با ایمنی و نحوه مدیریت چنین ابزارهایی ایجاد کرد و بار دیگر تاکید شد که هوش مصنوعی احتیاج به نظارت جدی دارد. همینطور این اتفاق یادآوری کرد که هوش مصنوعی باید بیشتر بعنوان یک دستیار درنظر گرفته شود تا یک ابزار کاملا مستقل.


منبع:

1403/09/02
11:02:34
5.0 از 5
152
این مطلب Go Map را می پسندید؟
(1)
(0)

تازه ترین مطالب مرتبط در نقشه
نظرات بینندگان نقشه در مورد این مطلب
لطفا شما هم نظر دهید
= ۴ بعلاوه ۲
GoMap گو کپ