/ عمومی / هوش مصنوعی قابل توضیح (XAI) چیست؟

2 ماه پیش

زمان مطالعه : 7 دقیقه

هوش مصنوعی قابل توضیح (XAI) چیست؟

هوش مصنوعی را می‌توان به عنوان سیستمی تعریف کرد که خروجی‌هایی مانند محتوا، پیش‌بینی‌ها، توصیه‌ها یا تصمیم‌گیری‌هایی را تولید می‌کند که بر محیط‌هایی که با آن‌ها تعامل دارند، تأثیر می‌گذارد. چنین سیستم‌های هوش مصنوعی مطابق با یک یا چند تکنیک و رویکرد توسعه یافته‌اند.

هوش مصنوعی قابل توضیح (XAI) چیست؟

اصول اولیه هوش مصنوعی (AI) و هوش مصنوعی قابل توضیح (XAI) چیست؟

با توجه به این موضوع که سیستم‌های هوش مصنوعی (AI) ممکن است مانند یک جعبه سیاه عمل کنند و شفاف نیستند، هوش مصنوعی قابل توضیح (XAI) به عنوان یک زیرشاخه متمرکز بر توسعه سیستم‌هایی که انسان‌ها می‌توانند آن را درک کرده و توضیح دهند، پدیدار شده است.

برای درک اصول و هدف XAI، ابتدا باید بدانید هوش مصنوعی چیست. در حالی که هوش مصنوعی به‌عنوان یک حوزه علمی دارای سابقه طولانی است و مجموعه‌ای از کاربردهای فناوری در حال گسترش را در بر می‌گیرد، تعریف جهانی پذیرفته‌شده ای برای هوش مصنوعی وجود ندارد.

اروپا در خط مقدم توسعه چارچوب های قانونی مختلف و دستورالعمل های اخلاقی برای استقرار و توسعه هوش مصنوعی قرار دارد. یک پیشنهاد پیشگامانه از سوی کمیسیون اروپا (EC) در سال 2021 مقرراتی را برای اولین تعریف قانونی هوش مصنوعی ارائه کرد.

در این رابطه بخوانید‌ : پلتفرم بلر چیست؟ و چگونه میتوان توکن های BLUR را بدست آورد؟

طبق این پیشنهاد، هوش مصنوعی را می‌توان به عنوان سیستمی تعریف کرد که خروجی‌هایی مانند محتوا، پیش‌بینی‌ها، توصیه‌ها یا تصمیم‌گیری‌هایی را تولید می‌کند که بر محیط‌هایی که با آن‌ها تعامل دارند، تأثیر می‌گذارد. چنین سیستم‌های هوش مصنوعی مطابق با یک یا چند تکنیک و رویکرد توسعه یافته‌اند.

اول، آنها با مدل‌های یادگیری ماشینی (ML) (با نظارت، بدون نظارت، تقویتی و یادگیری عمیق) کار می‌کنند که همگی از دسته‌های ML هستند. توجه به این نکته مهم است که ML یکی از ضروریات هوش مصنوعی است، اما همه سیستم‌های هوش مصنوعی با تکنیک‌های پیشرفته ML مانند یادگیری عمیق کار نمی‌کنند.

سیستم های ML می توانند بدون پیروی از دستورالعمل های صریح سازگار شوند. در واقع، همه ML ها بر مبنای یک هدف خارجی از پیش تعیین شده کار نمی کنند، زیرا برخی از سیستم ها برای “استدلال” به سمت اهداف انتزاعی مهندسی شده اند و بنابراین بدون ورودی ثابت انسان عمل می کنند.

علاوه بر این، سیستم‌های هوش مصنوعی ممکن است با منطق و رویکردهای مبتنی بر دانش مانند نمایش دانش یا برنامه‌نویسی استقرایی (منطقی) کار کنند یا با آن ترکیب شوند. اولی به رمزگذاری اطلاعات اشاره دارد به روشی که یک سیستم هوش مصنوعی بتواند از آن استفاده کند (به عنوان مثال، با تعریف قوانین و روابط بین مفاهیم). دومی به مدل های ML اشاره دارد که قوانین یا فرضیه ها را از مجموعه ای از مثال ها یاد می گیرند.

یک سیستم هوش مصنوعی ممکن است روش‌های دیگری مانند رویکردهای آماری (تکنیک‌های به کار گرفته شده برای یادگیری الگوها یا روابط در داده‌ها) و روش‌های جستجو و بهینه‌سازی را به کار گیرد که بهترین راه‌حل برای یک مشکل خاص را با جستجو در فضای وسیعی از احتمالات جستجو می‌کنند.

بنابراین سایر اصول اولیه هوش مصنوعی چیست؟ از آنجایی که سیستم‌های هوش مصنوعی مبتنی بر داده‌ها هستند، کد نرم‌افزار و داده‌ها دو جزء حیاتی هوش مصنوعی هستند. در این زمینه، می‌توان ادعا کرد که پیشرفت در هوش مصنوعی، تحول دیجیتالی با حجم فزاینده‌ای از داده‌های تولید و جمع‌آوری شده است.

ضبط و پردازش داده ها با نحوه طراحی مجموعه الگوریتم های هوش مصنوعی مرتبط است. با این حال، الگوریتم‌ها دستورالعمل‌هایی هستند که تصمیم می‌گیرند چگونه یک کار را از طریق یک سری قوانین انجام دهند.

هوش مصنوعی بر اساس داده ها (ورودی) و الگوریتم ها انتخاب می کند یا خروجی تولید می کند.

اصطلاح “جعبه سیاه” به چالش درک و کنترل تصمیمات و اقدامات سیستم ها و الگوریتم های هوش مصنوعی اشاره دارد که به طور بالقوه کنترل و حکمرانی بر این سیستم ها را دشوار می کند.

اینجاست که هوش مصنوعی قابل توضیح (XAI) وارد عمل می شود. هدف XAI ارائه توضیحات قابل فهم برای انسان از نحوه رسیدن سیستم هوش مصنوعی به یک خروجی خاص است.

چرا هوش مصنوعی قابل توضیح (XAI) مهم است؟

هوش مصنوعی XAI شامل طراحی سیستم های هوش مصنوعی است که می تواند فرآیند تصمیم گیری خود را از طریق تکنیک های مختلف توضیح دهد. XAI باید به ناظران خارجی این امکان را بدهد که بهتر بفهمند خروجی یک سیستم هوش مصنوعی چگونه به وجود می آید و چقدر قابل اعتماد است. این امر مهم است زیرا هوش مصنوعی ممکن است اثرات نامطلوب مستقیم و غیرمستقیمی ایجاد کند که می تواند بر افراد و جوامع تأثیر بگذارد.

همچنین بخوانید : استیبل کوین چیست و چگونه کار میکند؟

شبکه‌های عصبی که تصمیم‌گیری هوش مصنوعی را تسهیل می‌کنند، اغلب سیستم‌های «یادگیری عمیق» نامیده می‌شوند. این بحث وجود دارد که تصمیمات سیستم های یادگیری عمیق تا چه حد مبهم یا غیرقابل بررسی هستند و تا چه حد هوش مصنوعی و “تفکر” آن می تواند و باید برای انسان های معمولی قابل توضیح باشد.

در مورد اینکه آیا سیستم های یادگیری عمیق واقعا جعبه سیاه هستند یا کاملاً شفاف هستند، بین محققان بحث وجود دارد. با این حال، اجماع عمومی این است که بیشتر تصمیمات باید تا حدی قابل توضیح باشند. این نکته مهم است زیرا استقرار سیستم‌های هوش مصنوعی توسط نهادهای دولتی یا تجاری می‌تواند بر افراد تأثیر منفی بگذارد و اطمینان از پاسخگویی و شفاف بودن این سیستم‌ها بسیار مهم است.

شرکت‌های خصوصی بسیاری از سیستم‌های هوش مصنوعی را توسعه داده یا به کار می‌گیرند. بخش قابل‌توجهی از پیشرفت‌های انجام شده در هوش مصنوعی امروز با بودجه خصوصی تامین می‌شود و به طور پیوسته در حال افزایش است. در واقع، سرمایه گذاری خصوصی در هوش مصنوعی در سال 2022، 18 برابر بیشتر از سال 2013 بود.

«تولیدکنندگان» هوش مصنوعی تجاری در درجه اول در قبال سهامداران خود مسئول هستند، بنابراین، ممکن است به شدت بر تولید سود اقتصادی و حفاظت از حقوق ثبت اختراع متمرکز شوند. از این رو، اگر عملکرد سیستم‌های هوش مصنوعی تجاری به اندازه کافی شفاف نباشد و مقادیر عظیمی از داده‌ها به صورت خصوصی برای آموزش و بهبود هوش مصنوعی انباشته شوند، درک نحوه عملکرد چنین سیستمی ضروری است.

در نهایت، اهمیت XAI در توانایی آن برای ارائه بینش در مورد فرآیند تصمیم‌گیری مدل‌هایش نهفته است و کاربران، تولیدکنندگان و آژانس‌های نظارتی را قادر می‌سازد تا درک کنند که چگونه و چرا یک نتیجه خاص ایجاد شده است.

این مسلما به ایجاد اعتماد در سیستم‌های هوش مصنوعی دولتی و خصوصی کمک می‌کند. مسئولیت پذیری را افزایش می دهد و تضمین می کند که مدل های هوش مصنوعی مغرضانه یا تبعیض آمیز نیستند.

هوش مصنوعی قابل توضیح چگونه کار می کند؟

اصول XAI به ایده طراحی سیستم‌های هوش مصنوعی مرتبط است که شفاف، قابل تفسیر بوده و می‌توانند توجیهات روشنی برای تصمیم‌هایشان ارائه دهند. در عمل، این شامل توسعه مدل‌های هوش مصنوعی است که انسان‌ها آن را درک می‌کنند، که می‌توانند ممیزی و بازبینی شوند و عاری از عواقب ناخواسته باشند.

توضیح پذیری در شفاف سازی، حیاتی ترین عامل و پارامتر شکل دهنده تصمیمات هوش مصنوعی است. در حالی که می توان ادعا کرد که به دلیل پیچیدگی درونی سیستم های هوش مصنوعی ارائه توضیح کامل غیرممکن است، پارامترها و مقادیر خاصی را می توان در سیستم های هوش مصنوعی برنامه ریزی کرد.

اهمیت شفافیت و توضیح پذیری در سیستم های هوش مصنوعی در سراسر جهان شناخته شده است، و اقداماتی برای توسعه XAI طی چندین سال در حال انجام است. همانطور که اشاره شد، XAI چندین مزیت دارد: مسلماً، می توان کشف کرد که چگونه و چرا تصمیمی گرفته شده یا به روشی که انجام شده عمل کرده است. در نتیجه، شفافیت ضروری است زیرا اعتماد و درک را برای کاربران ایجاد می کند و در عین حال امکان بررسی دقیق را به طور همزمان فراهم می کند.

توضیح‌پذیری پیش‌نیازی برای تعیین سایر اصول «اخلاقی» هوش مصنوعی، مانند پایداری، عدالت و انصاف است. از نظر تئوری، امکان نظارت بر برنامه های کاربردی هوش مصنوعی و توسعه هوش مصنوعی را فراهم می کند. این امر به ویژه برای برخی کاربردهای هوش مصنوعی و XAI، از جمله برنامه‌های کاربردی در سیستم قضایی، رسانه‌های اجتماعی، مراقبت‌های بهداشتی، مالی، و امنیت ملی مهم است، که در آن مدل‌های هوش مصنوعی برای تصمیم‌گیری‌های حیاتی استفاده می‌شوند که بر زندگی مردم و جوامع تأثیر می‌گذارد.

ترجمه شده توسط مجله خبری نیپوتو

 


0

خرید و فروش ارزهای دیجیتال از امروز شروع کنید



ثبت دیدگاه

لیست نظرات (0)
قیمت لحظه‌ای

بیت کوین

(BTC)
0.00٪

$ 0.00

0 تومان

خرید و فروش بیت کوین

بیشتر بخوانید