5 ماه پیش
زمان مطالعه : 7 دقیقه
هوش مصنوعی قابل توضیح (XAI) چیست؟
هوش مصنوعی را میتوان به عنوان سیستمی تعریف کرد که خروجیهایی مانند محتوا، پیشبینیها، توصیهها یا تصمیمگیریهایی را تولید میکند که بر محیطهایی که با آنها تعامل دارند، تأثیر میگذارد. چنین سیستمهای هوش مصنوعی مطابق با یک یا چند تکنیک و رویکرد توسعه یافتهاند.
اصول اولیه هوش مصنوعی (AI) و هوش مصنوعی قابل توضیح (XAI) چیست؟
با توجه به این موضوع که سیستمهای هوش مصنوعی (AI) ممکن است مانند یک جعبه سیاه عمل کنند و شفاف نیستند، هوش مصنوعی قابل توضیح (XAI) به عنوان یک زیرشاخه متمرکز بر توسعه سیستمهایی که انسانها میتوانند آن را درک کرده و توضیح دهند، پدیدار شده است.
برای درک اصول و هدف XAI، ابتدا باید بدانید هوش مصنوعی چیست. در حالی که هوش مصنوعی بهعنوان یک حوزه علمی دارای سابقه طولانی است و مجموعهای از کاربردهای فناوری در حال گسترش را در بر میگیرد، تعریف جهانی پذیرفتهشده ای برای هوش مصنوعی وجود ندارد.
اروپا در خط مقدم توسعه چارچوب های قانونی مختلف و دستورالعمل های اخلاقی برای استقرار و توسعه هوش مصنوعی قرار دارد. یک پیشنهاد پیشگامانه از سوی کمیسیون اروپا (EC) در سال 2021 مقرراتی را برای اولین تعریف قانونی هوش مصنوعی ارائه کرد.
در این رابطه بخوانید : تفاوت صرافی های متمرکز (CEX) و صرافی های غیرمتمرکز (DEX) ارز دیجیتال در چیست؟
طبق این پیشنهاد، هوش مصنوعی را میتوان به عنوان سیستمی تعریف کرد که خروجیهایی مانند محتوا، پیشبینیها، توصیهها یا تصمیمگیریهایی را تولید میکند که بر محیطهایی که با آنها تعامل دارند، تأثیر میگذارد. چنین سیستمهای هوش مصنوعی مطابق با یک یا چند تکنیک و رویکرد توسعه یافتهاند.
اول، آنها با مدلهای یادگیری ماشینی (ML) (با نظارت، بدون نظارت، تقویتی و یادگیری عمیق) کار میکنند که همگی از دستههای ML هستند. توجه به این نکته مهم است که ML یکی از ضروریات هوش مصنوعی است، اما همه سیستمهای هوش مصنوعی با تکنیکهای پیشرفته ML مانند یادگیری عمیق کار نمیکنند.
سیستم های ML می توانند بدون پیروی از دستورالعمل های صریح سازگار شوند. در واقع، همه ML ها بر مبنای یک هدف خارجی از پیش تعیین شده کار نمی کنند، زیرا برخی از سیستم ها برای “استدلال” به سمت اهداف انتزاعی مهندسی شده اند و بنابراین بدون ورودی ثابت انسان عمل می کنند.
علاوه بر این، سیستمهای هوش مصنوعی ممکن است با منطق و رویکردهای مبتنی بر دانش مانند نمایش دانش یا برنامهنویسی استقرایی (منطقی) کار کنند یا با آن ترکیب شوند. اولی به رمزگذاری اطلاعات اشاره دارد به روشی که یک سیستم هوش مصنوعی بتواند از آن استفاده کند (به عنوان مثال، با تعریف قوانین و روابط بین مفاهیم). دومی به مدل های ML اشاره دارد که قوانین یا فرضیه ها را از مجموعه ای از مثال ها یاد می گیرند.
یک سیستم هوش مصنوعی ممکن است روشهای دیگری مانند رویکردهای آماری (تکنیکهای به کار گرفته شده برای یادگیری الگوها یا روابط در دادهها) و روشهای جستجو و بهینهسازی را به کار گیرد که بهترین راهحل برای یک مشکل خاص را با جستجو در فضای وسیعی از احتمالات جستجو میکنند.
بنابراین سایر اصول اولیه هوش مصنوعی چیست؟ از آنجایی که سیستمهای هوش مصنوعی مبتنی بر دادهها هستند، کد نرمافزار و دادهها دو جزء حیاتی هوش مصنوعی هستند. در این زمینه، میتوان ادعا کرد که پیشرفت در هوش مصنوعی، تحول دیجیتالی با حجم فزایندهای از دادههای تولید و جمعآوری شده است.
ضبط و پردازش داده ها با نحوه طراحی مجموعه الگوریتم های هوش مصنوعی مرتبط است. با این حال، الگوریتمها دستورالعملهایی هستند که تصمیم میگیرند چگونه یک کار را از طریق یک سری قوانین انجام دهند.
هوش مصنوعی بر اساس داده ها (ورودی) و الگوریتم ها انتخاب می کند یا خروجی تولید می کند.
اصطلاح “جعبه سیاه” به چالش درک و کنترل تصمیمات و اقدامات سیستم ها و الگوریتم های هوش مصنوعی اشاره دارد که به طور بالقوه کنترل و حکمرانی بر این سیستم ها را دشوار می کند.
اینجاست که هوش مصنوعی قابل توضیح (XAI) وارد عمل می شود. هدف XAI ارائه توضیحات قابل فهم برای انسان از نحوه رسیدن سیستم هوش مصنوعی به یک خروجی خاص است.
چرا هوش مصنوعی قابل توضیح (XAI) مهم است؟
هوش مصنوعی XAI شامل طراحی سیستم های هوش مصنوعی است که می تواند فرآیند تصمیم گیری خود را از طریق تکنیک های مختلف توضیح دهد. XAI باید به ناظران خارجی این امکان را بدهد که بهتر بفهمند خروجی یک سیستم هوش مصنوعی چگونه به وجود می آید و چقدر قابل اعتماد است. این امر مهم است زیرا هوش مصنوعی ممکن است اثرات نامطلوب مستقیم و غیرمستقیمی ایجاد کند که می تواند بر افراد و جوامع تأثیر بگذارد.
همچنین بخوانید : ارز دیجیتال چیست؟ و چه تفاوت هایی با ارزهای فیات دارد؟
شبکههای عصبی که تصمیمگیری هوش مصنوعی را تسهیل میکنند، اغلب سیستمهای «یادگیری عمیق» نامیده میشوند. این بحث وجود دارد که تصمیمات سیستم های یادگیری عمیق تا چه حد مبهم یا غیرقابل بررسی هستند و تا چه حد هوش مصنوعی و “تفکر” آن می تواند و باید برای انسان های معمولی قابل توضیح باشد.
در مورد اینکه آیا سیستم های یادگیری عمیق واقعا جعبه سیاه هستند یا کاملاً شفاف هستند، بین محققان بحث وجود دارد. با این حال، اجماع عمومی این است که بیشتر تصمیمات باید تا حدی قابل توضیح باشند. این نکته مهم است زیرا استقرار سیستمهای هوش مصنوعی توسط نهادهای دولتی یا تجاری میتواند بر افراد تأثیر منفی بگذارد و اطمینان از پاسخگویی و شفاف بودن این سیستمها بسیار مهم است.
شرکتهای خصوصی بسیاری از سیستمهای هوش مصنوعی را توسعه داده یا به کار میگیرند. بخش قابلتوجهی از پیشرفتهای انجام شده در هوش مصنوعی امروز با بودجه خصوصی تامین میشود و به طور پیوسته در حال افزایش است. در واقع، سرمایه گذاری خصوصی در هوش مصنوعی در سال 2022، 18 برابر بیشتر از سال 2013 بود.
«تولیدکنندگان» هوش مصنوعی تجاری در درجه اول در قبال سهامداران خود مسئول هستند، بنابراین، ممکن است به شدت بر تولید سود اقتصادی و حفاظت از حقوق ثبت اختراع متمرکز شوند. از این رو، اگر عملکرد سیستمهای هوش مصنوعی تجاری به اندازه کافی شفاف نباشد و مقادیر عظیمی از دادهها به صورت خصوصی برای آموزش و بهبود هوش مصنوعی انباشته شوند، درک نحوه عملکرد چنین سیستمی ضروری است.
در نهایت، اهمیت XAI در توانایی آن برای ارائه بینش در مورد فرآیند تصمیمگیری مدلهایش نهفته است و کاربران، تولیدکنندگان و آژانسهای نظارتی را قادر میسازد تا درک کنند که چگونه و چرا یک نتیجه خاص ایجاد شده است.
این مسلما به ایجاد اعتماد در سیستمهای هوش مصنوعی دولتی و خصوصی کمک میکند. مسئولیت پذیری را افزایش می دهد و تضمین می کند که مدل های هوش مصنوعی مغرضانه یا تبعیض آمیز نیستند.
هوش مصنوعی قابل توضیح چگونه کار می کند؟
اصول XAI به ایده طراحی سیستمهای هوش مصنوعی مرتبط است که شفاف، قابل تفسیر بوده و میتوانند توجیهات روشنی برای تصمیمهایشان ارائه دهند. در عمل، این شامل توسعه مدلهای هوش مصنوعی است که انسانها آن را درک میکنند، که میتوانند ممیزی و بازبینی شوند و عاری از عواقب ناخواسته باشند.
توضیح پذیری در شفاف سازی، حیاتی ترین عامل و پارامتر شکل دهنده تصمیمات هوش مصنوعی است. در حالی که می توان ادعا کرد که به دلیل پیچیدگی درونی سیستم های هوش مصنوعی ارائه توضیح کامل غیرممکن است، پارامترها و مقادیر خاصی را می توان در سیستم های هوش مصنوعی برنامه ریزی کرد.
اهمیت شفافیت و توضیح پذیری در سیستم های هوش مصنوعی در سراسر جهان شناخته شده است، و اقداماتی برای توسعه XAI طی چندین سال در حال انجام است. همانطور که اشاره شد، XAI چندین مزیت دارد: مسلماً، می توان کشف کرد که چگونه و چرا تصمیمی گرفته شده یا به روشی که انجام شده عمل کرده است. در نتیجه، شفافیت ضروری است زیرا اعتماد و درک را برای کاربران ایجاد می کند و در عین حال امکان بررسی دقیق را به طور همزمان فراهم می کند.
توضیحپذیری پیشنیازی برای تعیین سایر اصول «اخلاقی» هوش مصنوعی، مانند پایداری، عدالت و انصاف است. از نظر تئوری، امکان نظارت بر برنامه های کاربردی هوش مصنوعی و توسعه هوش مصنوعی را فراهم می کند. این امر به ویژه برای برخی کاربردهای هوش مصنوعی و XAI، از جمله برنامههای کاربردی در سیستم قضایی، رسانههای اجتماعی، مراقبتهای بهداشتی، مالی، و امنیت ملی مهم است، که در آن مدلهای هوش مصنوعی برای تصمیمگیریهای حیاتی استفاده میشوند که بر زندگی مردم و جوامع تأثیر میگذارد.
ترجمه شده توسط مجله خبری نیپوتو
خرید و فروش ارزهای دیجیتال از امروز شروع کنید
ممکن است علاقه مند باشید
ثبت دیدگاه
لیست نظرات (0)
انتخاب سردبیر
مفاهیم پایه
بیشتر بخوانید