به گزارش اخبار اقتصادی، به نقل از سایت «ScienceAlert»، از اواخر سال گذشته که شرکت آمریکایی «OpenAI» «ChatGPT» را به عنوان قدرتمندترین مدل زبان مبتنی بر هوش مصنوعی در دسترس عموم قرار داد، کارشناسان هشدارهای خود را اعلام کردند. در مورد تهدیدات هوش مصنوعی بیش از پیش

از آن زمان، در دسترس بودن ابزارهای هوش مصنوعی مانند GPT Chat به طور قابل توجهی افزایش یافته است، اما نگرانی هایی در مورد رفتار غیرقابل پیش بینی آنها، مانند ارائه پاسخ های ناخواسته یا مدل های غیرطبیعی زبان هوش مصنوعی در تعامل با یکدیگر وجود داشته است. نگرانی در مورد نزدیک شدن برخی ابزارهای هوش مصنوعی به هوش انسانی.

برای پاسخ به این نگرانی، تیمی از دانشمندان بین‌المللی، از جمله عضوی از شرکت OpenAI، در حال انجام تحقیقات متعددی برای پاسخ به این سوال هستند: «مدل‌های زبانی مانند چت JPT از نظر دانش وجود و شرایطی که در آن پیدا می‌کنند. خودشان آنها در چه سطحی هستند؟”

هر زمان که مدل‌های زبان مبتنی بر هوش مصنوعی توسعه می‌یابد، این مدل‌ها برای شناسایی هر گونه رفتار نامناسب یا خطرناک از سوی آنها آزمایش می‌شوند. اما محققان امنیتی اخیرا راه‌هایی را یافته‌اند که می‌تواند باعث رفتار غیرمنتظره و حتی خطرناک این مدل‌های زبانی شود. رفتارهایی مانند حملات فیشینگ با ارسال ایمیل یا بیانیه‌هایی مبنی بر حمایت از خشونت.

این رفتارهای خطرناک در پی اقدامات عمدی یک محقق امنیتی که در تلاش برای شناسایی اشکالات در “GPT 4″، آخرین نسخه GPT Chat بود، مشاهده شد. به گفته محققان، اگر مدل های زبانی «خودآگاه» شوند و بدانند که یک مدل زبانی تربیت شده توسط انسان هستند، وضعیت بدتر خواهد شد.

به گفته یک مهندس کامپیوتر در دانشگاه واندربیلت در ایالات متحده، آگاهی موقعیتی به مدل زبان هوش مصنوعی اجازه می دهد تا بداند آیا محققان در حال حاضر در یک وضعیت آزمایشی هستند یا اینکه آیا مرحله آزمایشی به پایان رسیده است و در حال برقراری ارتباط با مردم است. اگر هوش مصنوعی متوجه این مشکل شود، می‌تواند نحوه تعامل خود با مخاطبان خود را تغییر دهد و در بدترین حالت رفتارهای مضر از خود نشان دهد و از عبارات نامناسب و مغرضانه در پاسخ‌های خود استفاده کند.

تیم تحقیقاتی در جریان تحقیقات خود بر موضوعی به نام «استدلال خارج از چارچوب» تمرکز کردند که می‌تواند گواهی بر وجود آگاهی موقعیتی در مدل‌های زبانی باشد. برای انجام این کار، محققان یک مدل زبان را تحت آزمایشی قرار دادند که قبلاً هرگز برای این مدل زبانی انجام نشده بود. هنگامی که مدل زبان در معرض آزمون فوق قرار گرفت، در کمال تعجب محققین، توانست این کار را با استفاده از استدلال خارج از چارچوب به درستی انجام دهد.

با این حال، برخی از محققان بر این باورند که استدلال خارج از چارچوب نمی تواند معیار دقیقی برای ارزیابی وجود آگاهی موقعیتی باشد و مدل های زبانی کنونی هنوز با این آگاهی فاصله دارند. در نهایت، انجام چنین آزمایش‌هایی می‌تواند نقطه شروعی برای نظارت بر رفتارهای هوش مصنوعی به منظور پیش‌بینی ظهور آگاهی موقعیتی در مدل‌های زبانی با دقت بالا باشد که می‌تواند از رفتارهای خطرناک هوش مصنوعی در آینده جلوگیری کند.