تعامل با هوش مصنوعی (AI)
August 21, 2024فروشگاه مایکروسافت (Microsoft Store) در ARM64 (برای UTM , Fusion)
August 21, 2024مقدمه
هوش مصنوعی (AI) یک فناوری نوظهور است که نقش فزاینده ای در زندگی روزمره استرالیایی ها ایفا خواهد کرد. در پاسخ به افزایش علاقه و بحث در مورد هوش مصنوعی، اداره سیگنال های استرالیا (ASD) در حال گسترش راهنمایی های هوش مصنوعی خود است تا به افراد و سازمان ها کمک کند تا با سیستم های هوش مصنوعی به روشی ایمن تعامل داشته باشند. هدف از این نشریه ارائه درک از چیستی هوش مصنوعی و چگونگی تأثیر آن بر سیستم ها و خدمات دیجیتالی است که استفاده می کنند.
هوش مصنوعی چیست؟
هوش مصنوعی تئوری و توسعه سیستم های کامپیوتری است که قادر به انجام وظایفی هستند که معمولا به هوش انسانی نیاز دارند، مانند ادراک بصری، تشخیص گفتار، تصمیم گیری و ترجمه بین زبان ها. هوش مصنوعی مدرن معمولا با استفاده از الگوریتم های یادگیری ماشین ساخته می شود. این الگوریتم ها الگوهای پیچیده ای را در داده ها پیدا می کنند که می توان از آنها برای تشکیل قوانین استفاده کرد. به عنوان مثال، دستیارهای صوتی (مانند سیری) از پردازش زبان طبیعی و یادگیری ماشینی برای درک صدای کاربر و انجام صحیح کارهایی مانند تنظیم آلارم یا جستجو در اینترنت استفاده می کنند. برای توضیح دقیق تر در مورد هوش مصنوعی، به ASD’s Conveluted Layers: An Artificial Intelligence Primer Publication مراجعه کنید.
در حال حاضر نمونه های زیادی از تأثیر مثبت هوش مصنوعی بر استرالیا وجود دارد. سیستم Spark که توسط سازمان تحقیقات علمی و صنعتی مشترک المنافع (CSIRO) توسعه یافته است، یک مثال عالی است. Spark، یک سیستم مجهز به هوش مصنوعی، قادر به طراحی مدل های انتشار آتش سوزی سفارشی برای پیش بینی گسترش آتش سوزی است. این فرآیند تصمیم گیری، برنامه ریزی، پاسخ و تحقیقات را با ارائه یک شبیه سازی واقع بینانه از چگونگی پیشرفت آتش سوزی و در عین حال کمک به بهبود آمادگی بحران و ایمنی جامعه توانمند می کند.
ملاحظات برای تعامل با هوش مصنوعی
مانند همه فناوری های نوظهور، هوش مصنوعی هم فرصت ها و هم ریسک ها را ارائه می دهد. برای استفاده ایمن از مزایای هوش مصنوعی، افراد و سازمان ها باید کمی وقت بگذارند تا بفهمند چه خطراتی برای آنها اعمال می شود و چگونه می توان این خطرات را کاهش داد. برخی از خطرات رایج مرتبط با هوش مصنوعی در زیر بیان شده است.
مسمومیت با داده ها
یک مدل هوش مصنوعی با آموزش آن بر روی حجم زیادی از داده ها ساخته می شود. به عنوان مثال، یک هوش مصنوعی که می تواند اشیاء را در یک عکس تشخیص دهد، بر روی تعداد زیادی تصویر آموزش داده می شود. از آنجایی که کیفیت داده های آموزشی بر عملکرد مدل هوش مصنوعی تأثیر می گذارد، یک عامل مخربی که این داده های آموزشی را تغییر می دهد، می تواند بر هوش مصنوعی برای تصمیم گیری ضعیف یا نادرست تأثیر بگذارد.
ورودی های متخاصم
هنگامی که یک سیستم هوش مصنوعی در حال کار است، بازیگران مخرب ممکن است بتوانند ورودی/اعلان های خاصی را در اختیار آن قرار دهند تا آن را مجبور به اشتباه کنند، مانند تولید محتوای حساس یا مضر.
سوء استفاده از هوش مصنوعی مولد
هوش مصنوعی مولد می تواند به عوامل مخرب اجازه دهد تا به راحتی کلاهبرداری های قانع کننده، اطلاعات نادرست یا مطالب توهین آمیز ایجاد کنند. به عنوان مثال، با تولید صدا و/یا کلیپ های ویدیویی جعلی از افراد برای تأثیرگذاری بر افکار عمومی یا آزار و اذیت افراد.
شناسایی آسیب پذیری ها
از سیستم های هوش مصنوعی می توان برای خودکارسازی جمع آوری و تجزیه و تحلیل داده ها استفاده کرد و به طور بالقوه تلاش و مهارت مورد نیاز عوامل مخرب را برای یافتن آسیب پذیری هایی برای بهره برداری در برنامه ها کاهش داد، در نتیجه امکان انتخاب سریعتر و موثرتر هدف را فراهم می کند.
نگرانی های مربوط به حریم خصوصی
اغلب، داده های جمع آوری شده از افراد برای محافظت از حریم خصوصی آنها ناشناس است. هنگامی که به درستی ناشناس شود، باید به تلاش قابل توجهی برای شناسایی مجدد یک فرد نیاز داشته باشد. با این حال، با ظهور هوش مصنوعی، نگرانی هایی وجود دارد که با استفاده از قابلیت هوش مصنوعی برای کار در مجموعه داده های بزرگ، بازیگران مخرب ممکن است بتوانند افراد را در مجموعه های بزرگی از داده های ناشناس شناسایی کنند.
چه تخفیف هایی وجود دارد؟
مراحلی وجود دارد که افراد و سازمان ها می توانند برای تعامل ایمن با هوش مصنوعی انجام دهند. پاسخ به سوالات زیر می تواند به افراد و سازمان ها کمک کند تا بفهمند چگونه می توانند از هوش مصنوعی به طور ایمن استفاده کنند و در عین حال برخی از خطرات آن را کاهش دهند.
برای افراد
هنگام استفاده از سیستم های هوش مصنوعی، به ویژه هوش مصنوعی مولد، ASD توصیه می کند از همان اصول امنیتی اساسی استفاده کنید که هنگام استفاده از هر سرویس آنلاین استفاده می شود.
افراد باید از خود بپرسند:
- آیا این سیستم هوش مصنوعی شهرت خوبی دارد؟
- آیا باید این اطلاعات را با سیستم هوش مصنوعی به اشتراک بگذارم؟
- سیستم هوش مصنوعی چگونه از اطلاعات من استفاده خواهد کرد؟ سیاست حفظ حریم خصوصی آن چه می گوید؟
- برای اطمینان از دقیق بودن و مناسب بودن خروجی سیستم هوش مصنوعی برای استفاده چه کاری می توانم انجام دهم؟
برای راهنمایی بیشتر در مورد اینکه چگونه افراد می توانند به صورت آنلاین ایمن بمانند، به راهنمای امنیت شخصی ASD مراجعه کنید.
برای سازمان ها
سازمان هایی که قصد استفاده یا توسعه سیستم های هوش مصنوعی را دارند باید مانند هر فناوری اطلاعاتی دیگری به تصمیم گیری خود نزدیک شوند و مزایا، خطرات و پیامدهای خاص سازمان خود را ارزیابی کنند.
سازمان ها باید از خود بپرسند:
- آیا سازمان ما سیستم هوش مصنوعی، از جمله خطراتی که ایجاد می کند، درک می کند؟
- آیا سیستم هوش مصنوعی با طراحی ایمن است؟
- آیا خطرات زنجیره تامین سایبری مرتبط با سیستم هوش مصنوعی را شناسایی کرده ایم؟
- سیستم هوش مصنوعی چگونه بر تعهدات حریم خصوصی و حفاظت از داده های سازمان ما تأثیر می گذارد؟
- چه کسی مسئول نظارت و/یا اگر مشکلی در سیستم هوش مصنوعی پیش بیاید؟
اطلاعات بیشتر
کتابچه راهنمای امنیت اطلاعات یک چارچوب امنیت سایبری است که سازمان ها می توانند برای محافظت از سیستم ها و داده های خود در برابر تهدیدات سایبری از آن استفاده کنند. توصیه های موجود در استراتژی های کاهش حوادث امنیت سایبری، همراه با هشت مورد ضروری آن، مکمل این چارچوب است.
برای اطلاعات بیشتر در مورد تعامل ایمن و مسئولانه با هوش مصنوعی، چارچوب اخلاقی هوش مصنوعی استرالیا را در نظر بگیرید. این یک چارچوب داوطلبانه است که توسط وزارت صنعت، علوم و منابع تولید شده است که به سازمان ها اجازه می دهد تا به شیوه های اخلاقی هوش مصنوعی متعهد شوند.
برای اطلاعات بیشتر در مورد بهترین شیوه ها هنگام پیاده سازی یا در نظر گرفتن استفاده از هوش مصنوعی، آژانس تحول دیجیتال راهنمای موقت در مورد استفاده دولت از ابزارهای هوش مصنوعی مولد عمومی را منتشر کرده است.