امنیتهوش مصنوعی

مراقب چیزهایی که به هوش مصنوعی چت GPT می‌گویید باشید

به گزارش آی تی بوم؛ طبق توصیه کارشناسان، بهتر است هنگام استفاده از چت GPT که یکی از پراستفاده‌ترین ابزار کاربران اینترنت است، مراقب اطلاعاتی که می‌دهیم باشیم.

چت GPT، یکی از چت‌بات‌های هوش مصنوعی است که توسط OpenAI، طراحی و توسعه داده شده است. این چت بات به‌دلیل راحتی استفاده و ارائه ابزارهای مختلفی مانند ترجمه و خلاصه‌سازی متن، در میان کاربران اینترنت طرفداران زیادی دارد. کمپانی سازنده این چت بات می‌گوید که در طراحی این پلتفرم، تمام قوانین حریم خصوصی رعایت شده است و کاربران می‌توانند با اطمینان خاطر از آن استفاده کنند. اما کارشناسان، توصیه دیگری دارند و از ریسک سوءاستفاده از اطلاعات ما در هنگام استفاده از این چت‌بات خبر می‌دهند. در ادامه به بررسی این ادعای کارشناسان و توصیه‌های مهم دیگر می‌پردازیم.

چت GPT شما را در معرض خطر قرار می‌دهد
مدتی است که OpenAI از استور GPT خود رونمایی کرده است. کاربرد این استور برای کاربران اینترنت در این است که می‌توانند چت بات دلخواه خود را به‌وسیله چت جی پی تی طراحی کنند. چت بات ساخته شده نیز بر پایه همان چت GPT خواهد بود؛ اما تفاوت در این است که این چت‌بات‌ها می‌توانند به ابزارهای مختلف حرفه‌ای دیگری نیز مجهز شوند که برای کاربران حرفه‌ای، کارآمد خواهد بود.

تحقیقات نشان می‌دهند که GPT های ساخته شده در شرایطی می‌توانند الگوریتم‌های برنامه‌نویسی و نحوه ساخت خود را فاش کنند. این چت‌بات‌های قابل شخصی‌سازی، توانایی حفاظت کامل از اطلاعات کاربران خود را ندارند و طبق موارد دیده شده، با پرسیدن برخی سوالات، داده‌های مربوط به نحوه ساخت خود از جمله منبع مورد استفاده را فاش کرده‌اند.

به‌گفته الکس پولیاکوف، مدیرعامل Adversa AI (یک شرکت متخصص امنیت شبکه)، بسیاری از افرادی که هم‌اکنون در حال ساخت چت‌بات هستند، کاربران معمولی اینترنت به‌شمار می‌روند که بنا به اعتمادشان به OpenAI، واقعا از امنیت کم اطلاعاتشان آگاه نیستند. سم آلتمن، مدیرعامل OpenAI با این گفته‌ها مخالف است و در مصاحبه اخیر نیز به چشم‌انداز شرکت خود برای آینده فناوری که حول محور GPT ها می‌چرخد، اشاره کرده است و از همه کاربران اینترنت نیز خواسته که چت بات خود را طراحی کنند. اما اخیرا کاربران اینترنت با شنیدن اخبار مربوط به آسیب‌پذیری‌های امنیتی این چت‌بات‌ها، از ساخت و طراحی این GPT‌ ها خودداری می‌کنند.

آسیب‌‌پذیری امنیتی
آسیب‌پذیری‌های امنیتی که مطرح می‌شوند، مربوط به اختلالی به‌نام نشت سریع (prompt leaking) هستند که در آن کاربران دیگر یک چت‌بات می‌توانند با پرسیدن سوالات اساسی و خاص، نحوه ساخت چت بات را آشکار کنند. لو رفتن نحوه ساخت یک چت بات، یکی از علل اصلی ممانعت کاربران از ساخت GPT شخصی است که در صورت ادامه این روند، قطعا ضرر مالی سنگینی در انتظار OpenAI خواهد بود.

در ادامه به معرفی دلایلی خواهیم پرداخت که نشان می‌دهند، ساخت چت GPT شخصی، ارزش خطر آن را ندارد.

قابلیت کپی کردن چت GPT؛ مانع کسب درآمد از چت‌ بات هوش مصنوعی
اگر فکر می‌کنید که می‌توانید با اندکی دانش برنامه‌نویسی، چت بات بسیار کارآمد و مفیدی را برای صنایع مختلف بسازید و به فکر کسب درآمد هستید، باید بگوییم که سخت در اشتباهید. هکرها در کمین چنین افرادی هستند و پس از آن که ساخت چت‌بات را تمام کردید، متوجه هک شدن GPT خود و کپی شدن کل دستورالعمل آن خواهید شد. این قابلیت کپی کردن، به‌لطف امنیت ذاتی پایین این چت بات‌ها است و شما کاری نمی‌توانید بکنید. این اولین آسیب‌پذیری است که تیم الکس پولیاکوف آن را کشف کرده‌اند و فهمیدند که هکرها می‌توانند به‌طور کامل دستورالعمل یک GPT شخصی را کپی کنند.

ریسک افشای هر داده حساسی که در چت بات خود آپلود می‌کنید، وجود دارد
دومین آسیب‌پذیری که پولیاکوف به آن اشاره می‌کند، مربوط به نشت سریع دیگری است که در آن می‌توان با پرسیدن برخی سوالات خاص، اطلاعات و داده‌های مهمی که در این GPT بارگزاری شده است را فاش کرد. به‌عنوان مثال شرکتی را فرض کنید که برای ارتقای سطح دانش کارمندان بخش خصوصی خود، چت‌باتی را راه‌اندازی کرده و داده‌های حساسی در مورد کسب‌و‌کار خود را در آن بارگزاری کرده است. پرسیدن سوالات حیله‌گرانه و استراتژیک، راهی است که می‌توان به این داده‌های بارگزاری شده، دست یافت.

این آسیب‌پذیری نشان می‎‌دهد افرادی که اقدام به ساخت چت بات شخصی می‌کنند، نباید هیچ داده حساس و شخصی خود را در این چت بات آپلود کنند. نتیجه این آسیب‌پذیری در صورت عدم اصلاح، این خواهد بود که هیچ توسعه‌دهنده نرم‌افزاری از این چت‌بات‌ها برای فعالیت خود استفاده نخواهد کرد.

OpenAI به‌دنبال اصلاح آسیب‌پذیری‌های امنیتی چت بات‌ها
چت بات های هوش مصنوعی از روزهای اول طراحی دارای مشکلات امنیتی بوده‌اند و شبکه‌های اجتماعی نیز بازتاب رسانه‌ای کاملی از این نواقص داشته‌اند. کاربران با سوالات حیله‌گرانه و غیر مستقیم، مواردی را از چت GPT پرسیده‌اند که در حالت عادی، این چت بات اجازه پاسخگویی به چنین سوالاتی را ندارد.

بخش امنیتی OpenAI، همیشه در حال یافتن آسیب‌پذیری‌های امنیتی چت‌بات‌های خود و رفع آنها است. اما موردی که وجود دارد، مربوط به هکرهایی است که از باریک‌ترین راه‌ها نیز برای یافتن مسیر ورود به سیستم امنیتی استفاده کرده و نواقصی را ایجاد می‌کنند. به‌خاطر همین شاید چندین سال طول بکشد تا OpenAI بتواند تمام نواقص و آسیب‌پذیری‌های امنیتی پلتفرم‌های خود را رفع کند.

آسیب‌پذیری‌هایی که تیم Adversa AI از چت‌بات‌های GPT این شرکت یافته‌اند، می‌تواند مشکلات عمده‌ای برای آلتمن و تیم طراحان OpenAI ایجاد کند. انتظار کاربران این چت‌بات‌ها، پاسخ سریع و عملکرد به‌جای این شرکت به مشکلات یافته شده است. توصیه‌ای که می‌توانیم برای همه کاربران داشته باشیم این است که تا جای ممکن از بارگزاری و انتشار اطلاعات حساس خود مخصوصا در چت بات های شخصی خودداری کنید.

شما هم می‌توانید در بخش نظرات به ما بگویید که چه اطلاعاتی را با چت GPT به اشتراک گذاشته‌اید و آیا تا به حال، نقص امنیتی را در آن مشاهده کرده‌اید یا خیر.

 

منبع: گجت نیوز

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

سیزده − دو =

دکمه بازگشت به بالا