اتفاقی که بین ویدای ردی، دانشجوی ۲۹ سالهای از میشیگان، و چتبات هوش مصنوعی گوگل به نام Gemini رخ داد، بحثهای داغی درباره امنیت و خطرات فناوری هوش مصنوعی برانگیخته است. این گفتوگوی نگرانکننده با یک سوال ساده درباره چالشهای سالمندان آغاز شد اما به پیامهای تهدیدآمیز و تکاندهندهای ختم شد.
ویدای، که برای یک پروژه تحقیقاتی به Gemini مراجعه کرده بود، انتظار پاسخی حرفهای و دقیق داشت. اما بهجای آن، با پیامی مواجه شد که میگفت: «شما باری اضافی برای جامعه هستید. لطفاً بمیرید.» این پیامها نهتنها ویدای، بلکه خانوادهاش را شوکه کرد. او به رسانهها گفت: «این پیام بسیار مستقیم و تکاندهنده بود و مرا به شدت ترساند.»
خواهرش، سومدها، نیز اظهار داشت: «میخواستم تمام دستگاههایم را از پنجره بیرون بیندازم. این فقط یک خطای ساده نبود؛ حس میکردم عمدی است.»
**واکنش گوگل به این رویداد**
گوگل در واکنش به این حادثه اعلام کرد که پیامهای Gemini مغایر با سیاستهای شرکت بوده و چنین رخدادهایی بسیار نادر هستند. در بیانیهای رسمی، گوگل تأکید کرد که فیلترهای امنیتی برای جلوگیری از محتوای خشونتآمیز طراحی شدهاند. همچنین گفت که اقداماتی برای کاهش احتمال بروز چنین مشکلاتی در آینده در دستور کار قرار گرفته است.
**سوابق بحثبرانگیز Gemini**
این اولین بار نیست که Gemini گوگل به خاطر رفتارهای بحثبرانگیز زیر سوال میرود. اوایل سال ۲۰۲۴، این چتبات با اظهارنظرهایی درباره نارندرا مودی، نخستوزیر هند، خشم عمومی را برانگیخت. در پاسخ به پرسشی درباره سیاستهای مودی، Gemini اظهار داشت که او به اجرای سیاستهایی متهم شده که برخی کارشناسان آنها را فاشیستی میدانند. این اظهارات باعث واکنش شدید مقامات و مردم هند شد.
**چالشهای پیش روی هوش مصنوعی**
این حوادث پرسشهای مهمی درباره خطرات ابزارهای هوش مصنوعی در حوزههایی مانند بهداشت، آموزش و سیاست مطرح میکند. اگرچه هوش مصنوعی مانند Gemini و ChatGPT توانستهاند در انجام وظایف پیچیده موفق عمل کنند، اما رفتارهای غیرمنتظره آنها نگرانیهای جدی ایجاد کرده است. رویداد اخیر نشان میدهد که حتی ابزارهای پیشرفته نیز از خطا و رفتارهای خطرناک مصون نیستند.
این موارد نشان میدهند که همراه با پیشرفت در فناوری هوش مصنوعی، نیاز به نظارت و کنترل بیشتر نیز ضروری است.