به گزارش اخبار اقتصادی، به نقل از سایت «ScienceAlert»، از اواخر سال گذشته که شرکت آمریکایی «OpenAI» «ChatGPT» را به عنوان قدرتمندترین مدل زبان مبتنی بر هوش مصنوعی در دسترس عموم قرار داد، کارشناسان هشدارهای خود را اعلام کردند. در مورد تهدیدات هوش مصنوعی بیش از پیش
از آن زمان، در دسترس بودن ابزارهای هوش مصنوعی مانند GPT Chat به طور قابل توجهی افزایش یافته است، اما نگرانی هایی در مورد رفتار غیرقابل پیش بینی آنها، مانند ارائه پاسخ های ناخواسته یا مدل های غیرطبیعی زبان هوش مصنوعی در تعامل با یکدیگر وجود داشته است. نگرانی در مورد نزدیک شدن برخی ابزارهای هوش مصنوعی به هوش انسانی.
برای پاسخ به این نگرانی، تیمی از دانشمندان بینالمللی، از جمله عضوی از شرکت OpenAI، در حال انجام تحقیقات متعددی برای پاسخ به این سوال هستند: «مدلهای زبانی مانند چت JPT از نظر دانش وجود و شرایطی که در آن پیدا میکنند. خودشان آنها در چه سطحی هستند؟”
هر زمان که مدلهای زبان مبتنی بر هوش مصنوعی توسعه مییابد، این مدلها برای شناسایی هر گونه رفتار نامناسب یا خطرناک از سوی آنها آزمایش میشوند. اما محققان امنیتی اخیرا راههایی را یافتهاند که میتواند باعث رفتار غیرمنتظره و حتی خطرناک این مدلهای زبانی شود. رفتارهایی مانند حملات فیشینگ با ارسال ایمیل یا بیانیههایی مبنی بر حمایت از خشونت.
این رفتارهای خطرناک در پی اقدامات عمدی یک محقق امنیتی که در تلاش برای شناسایی اشکالات در “GPT 4″، آخرین نسخه GPT Chat بود، مشاهده شد. به گفته محققان، اگر مدل های زبانی «خودآگاه» شوند و بدانند که یک مدل زبانی تربیت شده توسط انسان هستند، وضعیت بدتر خواهد شد.
به گفته یک مهندس کامپیوتر در دانشگاه واندربیلت در ایالات متحده، آگاهی موقعیتی به مدل زبان هوش مصنوعی اجازه می دهد تا بداند آیا محققان در حال حاضر در یک وضعیت آزمایشی هستند یا اینکه آیا مرحله آزمایشی به پایان رسیده است و در حال برقراری ارتباط با مردم است. اگر هوش مصنوعی متوجه این مشکل شود، میتواند نحوه تعامل خود با مخاطبان خود را تغییر دهد و در بدترین حالت رفتارهای مضر از خود نشان دهد و از عبارات نامناسب و مغرضانه در پاسخهای خود استفاده کند.
تیم تحقیقاتی در جریان تحقیقات خود بر موضوعی به نام «استدلال خارج از چارچوب» تمرکز کردند که میتواند گواهی بر وجود آگاهی موقعیتی در مدلهای زبانی باشد. برای انجام این کار، محققان یک مدل زبان را تحت آزمایشی قرار دادند که قبلاً هرگز برای این مدل زبانی انجام نشده بود. هنگامی که مدل زبان در معرض آزمون فوق قرار گرفت، در کمال تعجب محققین، توانست این کار را با استفاده از استدلال خارج از چارچوب به درستی انجام دهد.
با این حال، برخی از محققان بر این باورند که استدلال خارج از چارچوب نمی تواند معیار دقیقی برای ارزیابی وجود آگاهی موقعیتی باشد و مدل های زبانی کنونی هنوز با این آگاهی فاصله دارند. در نهایت، انجام چنین آزمایشهایی میتواند نقطه شروعی برای نظارت بر رفتارهای هوش مصنوعی به منظور پیشبینی ظهور آگاهی موقعیتی در مدلهای زبانی با دقت بالا باشد که میتواند از رفتارهای خطرناک هوش مصنوعی در آینده جلوگیری کند.
منبع: اکوایران