امضای اولین توافق‌نامه بین‌المللی امنیت هوش مصنوعی توسط 18 کشور برای جلوگیری از نابودی دنیا - فناوران نسل برتر رایانه (کامپیوتر فیض)

امضای اولین توافق‌نامه بین‌المللی امنیت هوش مصنوعی توسط 18 کشور برای جلوگیری از نابودی دنیا

امضای اولین توافق‌نامه بین‌المللی امنیت هوش مصنوعی توسط 18 کشور برای جلوگیری از نابودی دنیا بهادر قلندرپور 07 آذر 1402 14:00 روز گذشته اولین سند ایمن‌سازی هوش مصنوعی در جهان رونمایی شد و 18 کشور آن را امضا کردند. در این سند دستورالعمل‌ها و توصیه‌های عمومی برای کنترل هوش مصنوعی و همچنین مسدودسازی تمامی راه‌های سواستفاده از فناوری AI ارائه شده است. هوش مصنوعی یکی از فناوری‌های نوظهور رو به رشد است که طی یک سال گذشته توانسته به شکل عجیبی گسترش یابد. گرچه این تکنولوژی می‌تواند مزایای قابل توجهی مختص به خود را داشته باشد، اما مانند هر فناوری جدید دیگری همراه با خطرات بالقوه ظهور کرده است. اولین سند بین‌المللی هوش مصنوعی در جهان در همین راستا، اخیراً از مجموعه قوانین جدیدی برای کنترل چگونگی توسعه هوش مصنوعی توسط دولت‌های سراسر جهان رونمایی شده است. به گزارش tomsguide، این مجموعه دستورالعمل‌های جدید AI به این امید منتشر شده‌اند که استفاده از آن‌ها بتواند تمام مسیرهای آسیب رساندن به بشریت توسط هوش مصنوعی را مسدود کند. اولین سند بین‌المللی هوش مصنوعی در جهان دستورالعمل‌های فوق توسط آژانس امنیت سایبری و امنیت زیر ساخت ایالات متحده (CISA) و مرکز امنیت سایبری ملی بریتانیا (NCSC) ایجاد شده‌اند. در این سند 20 صفحه‌ای که روز گذشته رونمایی شد، 18 کشور از سراسر جهان توافق کردند که شرکت‌های طراحی کننده هوش مصنوعی باید این ابزارهای قدرتمند خود را به‌گونه‌ای توسعه دهند که امکان سواستفاده از آن‌ها علیه مشتریان و عموم مردم وجود نداشته باشد. اولین سند ایمن‌سازی هوش مصنوعی در جهان این سند غیرالزام‌آور عمدتاً شامل توصیه‌های عمومی مانند نظارت بر سیستم‌های مبتنی بر AI جهت جلوگیری از هرگونه سوءاستفاده احتمالی، محافظت از داده‌ها مهم در برابر دست‌کاری یا بررسی شرایط تأمین‌کنندگان نرم‌افزار می‌شود. اولین سند بین‌المللی هوش مصنوعی در جهان با این وجود، مدیر آژانس امنیت سایبری و امنیت زیرساخت ایالات متحده اعلام کرد که امضای این توافق‌نامه توسط کشورهای مختلف نشان می‌دهد که آن‌ها به ایمن‌سازی هوش مصنوعی و جلوگیری از سوءاستفاده از این فناوری نوپا اهمیت می‌دهند. در همین رابطه بخوانید: - خطر واقعی هوش مصنوعی که نمی‌خواهند شما بدانید - چگونه از خطر جعل تصاویرمان توسط هوش مصنوعی در امان بمانیم؟ به گفته توبی لوئیس (Toby Lewis)، رئیس جهانی تحلیل تهدید در Darktrace، اطمینان از ایمن بودن داده‌ها و مدل‌های هوش مصنوعی در برابر حملات باید پیش نیاز هر توسعه دهنده‌ای باشد.

روز گذشته اولین سند ایمن‌سازی هوش مصنوعی در جهان رونمایی شد و 18 کشور آن را امضا کردند. در این سند دستورالعمل‌ها و توصیه‌های عمومی برای کنترل هوش مصنوعی و همچنین مسدودسازی تمامی راه‌های سواستفاده از فناوری AI ارائه شده است.

هوش مصنوعی یکی از فناوری‌های نوظهور رو به رشد است که طی یک سال گذشته توانسته به شکل عجیبی گسترش یابد. گرچه این تکنولوژی می‌تواند مزایای قابل توجهی مختص به خود را داشته باشد، اما مانند هر فناوری جدید دیگری همراه با خطرات بالقوه ظهور کرده است.

در همین راستا، اخیراً از مجموعه قوانین جدیدی برای کنترل چگونگی توسعه هوش مصنوعی توسط دولت‌های سراسر جهان رونمایی شده است.

به گزارش tomsguide، این مجموعه دستورالعمل‌های جدید AI به این امید منتشر شده‌اند که استفاده از آن‌ها بتواند تمام مسیرهای آسیب رساندن به بشریت توسط هوش مصنوعی را مسدود کند.

اولین سند بین‌المللی هوش مصنوعی در جهان

دستورالعمل‌های فوق توسط آژانس امنیت سایبری و امنیت زیر ساخت ایالات متحده (CISA) و مرکز امنیت سایبری ملی بریتانیا (NCSC) ایجاد شده‌اند. در این سند 20 صفحه‌ای که روز گذشته رونمایی شد، 18 کشور از سراسر جهان توافق کردند که شرکت‌های طراحی کننده هوش مصنوعی باید این ابزارهای قدرتمند خود را به‌گونه‌ای توسعه دهند که امکان سواستفاده از آن‌ها علیه مشتریان و عموم مردم وجود نداشته باشد.

اولین سند ایمن‌سازی هوش مصنوعی در جهان
این سند غیرالزام‌آور عمدتاً شامل توصیه‌های عمومی مانند نظارت بر سیستم‌های مبتنی بر AI جهت جلوگیری از هرگونه سوءاستفاده احتمالی، محافظت از داده‌ها مهم در برابر دست‌کاری یا بررسی شرایط تأمین‌کنندگان نرم‌افزار می‌شود.

اولین سند بین‌المللی هوش مصنوعی در جهان

با این وجود، مدیر آژانس امنیت سایبری و امنیت زیرساخت ایالات متحده اعلام کرد که امضای این توافق‌نامه توسط کشورهای مختلف نشان می‌دهد که آن‌ها به ایمن‌سازی هوش مصنوعی و جلوگیری از سوءاستفاده از این فناوری نوپا اهمیت می‌دهند.

به گفته توبی لوئیس (Toby Lewis)، رئیس جهانی تحلیل تهدید در Darktrace، اطمینان از ایمن بودن داده‌ها و مدل‌های هوش مصنوعی در برابر حملات باید پیش نیاز هر توسعه دهنده‌ای باشد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *