რა არის ახსნადი ხელოვნური ინტელექტი?

რა არის ახსნილი ხელოვნური ინტელექტი?

„ახსნადი ხელოვნური ინტელექტი“ ერთ-ერთი იმ ფრაზათაგანია, რომელიც სადილზე ელეგანტურად ჟღერს და აბსოლუტურად სასიცოცხლოდ მნიშვნელოვანი ხდება იმ მომენტში, როდესაც ალგორითმი სამედიცინო დიაგნოზს დასვამს, სესხს ამტკიცებს ან ტვირთს ანიშნებს. თუ ოდესმე გიფიქრიათ, კარგი, მაგრამ რატომ გააკეთა მოდელმა ეს... თქვენ უკვე ახსნადი ხელოვნური ინტელექტის ტერიტორიაზე ხართ. მოდით, იდეა მარტივი ენით განვმარტოთ - არანაირი მაგია, მხოლოდ მეთოდები, კომპრომისები და რამდენიმე მკაცრი სიმართლე.

სტატიები, რომელთა წაკითხვაც შეიძლება მოგეწონოთ ამის შემდეგ:

🔗 რა არის ხელოვნური ინტელექტის მიკერძოება?
გაიგეთ ხელოვნური ინტელექტის მიკერძოება, მისი წყაროები, ზეგავლენა და შერბილების სტრატეგიები.

🔗 რა არის პროგნოზირებადი ხელოვნური ინტელექტი?
გამოიკვლიეთ პროგნოზირებადი ხელოვნური ინტელექტი, მისი საერთო გამოყენება, სარგებელი და პრაქტიკული შეზღუდვები.

🔗 რა არის ჰუმანოიდი რობოტის ხელოვნური ინტელექტი?
გაიგეთ, როგორ აძლიერებს ხელოვნური ინტელექტი ჰუმანოიდ რობოტებს, როგორია მათი შესაძლებლობები, მაგალითები და გამოწვევები.

🔗 რა არის ხელოვნური ინტელექტის ტრენერი?
გაეცანით, რას აკეთებენ ხელოვნური ინტელექტის ტრენერები, რა უნარ-ჩვევები და კარიერული წინსვლის გზები აქვთ მათ.


რას ნიშნავს სინამდვილეში ახსნილი ხელოვნური ინტელექტი?

ახსნადი ხელოვნური ინტელექტი არის ხელოვნური ინტელექტის სისტემების დიზაინისა და გამოყენების პრაქტიკა ისე, რომ მათი შედეგები გასაგები იყოს ადამიანებისთვის - კონკრეტული ადამიანებისთვის, რომლებზეც გავლენას ახდენს ან რომლებიც პასუხისმგებელნი არიან გადაწყვეტილებებზე და არა მხოლოდ მათემატიკის ოსტატებისთვის. NIST ამას ოთხ პრინციპად ყოფს: ახსნა- განმარტების , აუდიტორიისთვის მისი შინაარსის ახსნის სიზუსტის უზრუნველყოფა (მოდელის ერთგულება) და ცოდნის ლიმიტების (სისტემის ცოდნის გადაჭარბებული მნიშვნელობის არარსებობა) [1].

მოკლე ისტორიული მიმოხილვა: უსაფრთხოებისთვის კრიტიკული სფეროები ადრეულ ეტაპზევე წამოიწყეს ამ საკითხზე მუშაობა, რათა შეექმნათ მოდელები, რომლებიც ზუსტი და ამავდროულად საკმარისად ინტერპრეტირებადი იქნებოდა „ციკლის“ განმავლობაში სანდოობისთვის. „ჩრდილოეთის ვარსკვლავმა“ არ შეცვალა გამოსაყენებელი ახსნა-განმარტებები შესრულების შემცირების გარეშე


რატომ არის ახსნილი ხელოვნური ინტელექტი უფრო მნიშვნელოვანი, ვიდრე თქვენ გგონიათ 💡

  • ნდობა და ადაპტაცია - ადამიანები იღებენ სისტემებს, რომლებშიც შეუძლიათ კითხვების დასმა, კითხვების დასმა და შესწორება.

  • რისკი და უსაფრთხოება - ახსნის ზედაპირული უკმარისობის რეჟიმებს, სანამ ისინი მასშტაბურად გაგაოცებენ.

  • მარეგულირებელი მოლოდინები - ევროკავშირში ხელოვნური ინტელექტის შესახებ კანონი ადგენს გამჭვირვალობის მკაფიო ვალდებულებებს - მაგალითად, ადამიანებს აცნობებს, როდის ურთიერთობენ ისინი ხელოვნურ ინტელექტთან გარკვეულ კონტექსტში და შესაბამისად ასახელებს ხელოვნური ინტელექტის მიერ გენერირებულ ან მანიპულირებულ კონტენტს [2].

მოდით, ვიყოთ გულახდილები - ულამაზესი დაფები ახსნა-განმარტებები არ არის. კარგი ახსნა ადამიანს ეხმარება გადაწყვიტოს, რა გააკეთოს შემდეგ.


რა ხდის Explainable AI-ს სასარგებლოს ✅

ნებისმიერი XAI მეთოდის შეფასებისას, იკითხეთ:

  1. ერთგულება - ახსნა ასახავს მოდელის ქცევას, თუ უბრალოდ დამამშვიდებელ ისტორიას მოგვითხრობს?

  2. აუდიტორიისთვის სარგებლიანობა - მონაცემთა მეცნიერებს სურთ გრადიენტები; კლინიცისტებს - კონტრფაქტები ან წესები; მომხმარებლებს - მარტივი ენით ჩამოყალიბებული მიზეზები და შემდეგი ნაბიჯები.

  3. სტაბილურობა - შეყვანის მცირე ცვლილებებმა არ უნდა შეცვალოს სიუჟეტი A-დან Z-მდე.

  4. ქმედითობა - თუ შედეგი არასასურველია, რა შეიძლებოდა შეცვლილიყო?

  5. გულწრფელობა გაურკვევლობასთან დაკავშირებით - ახსნა-განმარტებებმა საზღვრები უნდა გამოავლინოს და არა მათი გადაფარვა.

  6. მასშტაბის სიცხადე - ეს ერთი პროგნოზის ლოკალური მოდელის ქცევის გლობალური

თუ მხოლოდ ერთ რამეს გაიხსენებთ: სასარგებლო ახსნა ცვლის ადამიანის გადაწყვეტილებას და არა მხოლოდ მის განწყობას.


ძირითადი ცნებები, რომლებსაც ხშირად გაიგებთ 🧩

  • ინტერპრეტაცია vs ახსნადობა - ინტერპრეტაცია: მოდელი საკმარისად მარტივია წასაკითხად (მაგ., პატარა ხე). ახსნადობა: დაამატეთ მეთოდი ზემოთ, რათა რთული მოდელი წასაკითხი გახდეს.

  • ლოკალური vs გლობალური - ლოკალური განმარტავს ერთ გადაწყვეტილებას; გლობალური აჯამებს ქცევას მთლიანობაში.

  • პოსტ-ჰოკ vs ინტრინსული - პოსტ-ჰოკ ხსნის გაწვრთნილ შავ ყუთს; ინტრინსული იყენებს თანდაყოლილ ინტერპრეტირებად მოდელებს.

დიახ, ეს საზღვრები ბუნდოვანია. არა უშავს; ენა ვითარდება, თქვენი რისკების რეგისტრი კი - არა.


პოპულარული ახსნადი ხელოვნური ინტელექტის მეთოდები - ტური 🎡

აქ არის ქარიშხლიანი ტური, მუზეუმის აუდიოგიდის ატმოსფეროთი, მაგრამ უფრო მოკლე.

1) დამატებითი მახასიათებლების ატრიბუცია

  • SHAP - თითოეულ მახასიათებელს ანიჭებს წვლილს კონკრეტულ პროგნოზში თამაშის თეორიული იდეების მეშვეობით. მოწონებულია მკაფიო დანამატური ახსნა-განმარტებებისა და მოდელების გამაერთიანებელი ხედვის გამო [3].

2) ადგილობრივი სუროგატი მოდელები

  • LIME - ამზადებს მარტივ, ლოკალურ მოდელს ახსნილი ეგზემპლარის გარშემო. სწრაფი, ადამიანის მიერ წასაკითხი შეჯამებები იმის შესახებ, თუ რომელი მახასიათებლები იყო მნიშვნელოვანი ახლომდებარე სივრცეში. შესანიშნავია დემო ვერსიებისთვის, სასარგებლოა ვარჯიშისა და ყურების სტაბილურობისთვის [4].

3) გრადიენტზე დაფუძნებული მეთოდები ღრმა ქსელებისთვის

  • ინტეგრირებული გრადიენტები - მნიშვნელობას ანიჭებს საბაზისო ხაზიდან შემავალ გრადიენტებს ინტეგრირებით; ხშირად გამოიყენება ხედვისა და ტექსტისთვის. გონივრული აქსიომები; სიფრთხილეა საჭირო საბაზისო ხაზებთან და ხმაურთან დაკავშირებით [1].

4) მაგალითებზე დაფუძნებული განმარტებები

  • კონტრფაქტები - „რა მინიმალური ცვლილება შეცვლიდა შედეგს?“ იდეალურია გადაწყვეტილების მისაღებად, რადგან ის ბუნებრივად ქმედითია - გააკეთეთ X Y-ის მისაღებად [1].

5) პროტოტიპები, წესები და ნაწილობრივი დამოკიდებულება

  • პროტოტიპები წარმომადგენლობით მაგალითებს აჩვენებს; წესები ასახავს ისეთ ნიმუშებს, როგორიცაა , თუ შემოსავალი > X და ისტორია = გაწმენდა, მაშინ დამტკიცება ; ნაწილობრივი დამოკიდებულება აჩვენებს მახასიათებლის საშუალო ეფექტს გარკვეულ დიაპაზონში. მარტივი იდეები, ხშირად არასაკმარისად შეფასებული.

6) ენობრივი მოდელებისთვის

  • ტოკენების/სპანსების ატრიბუციები, ამოღებული ეგზემპლარები და სტრუქტურირებული დასაბუთებები. სასარგებლოა, ჩვეულებრივი გაფრთხილებით: ზუსტი სითბური რუკები არ იძლევა მიზეზობრივი მსჯელობის გარანტიას [5].


სწრაფი (კომპოზიტური) საქმე ველიდან 🧪

საშუალო ზომის კრედიტორი საკრედიტო გადაწყვეტილებებისთვის გრადიენტით გაძლიერებულ მოდელს გვთავაზობს. ადგილობრივი SHAP ეხმარება აგენტებს უარყოფითი შედეგის ახსნაში („ვალისა და შემოსავლის თანაფარდობა და კრედიტის ბოლოდროინდელი გამოყენება იყო მთავარი მამოძრავებელი ფაქტორები.“) [3]. კონტრფაქტობრივი ფენა გვთავაზობს შესაძლო რეაგირების საშუალებას („შეამცირეთ ბრუნვადი გამოყენება ~10%-ით ან დაამატეთ 1,500 ფუნტი სტერლინგი დადასტურებულ დეპოზიტებში გადაწყვეტილების შესაცვლელად.“) [1]. შიდა დონეზე, გუნდი ატარებს რანდომიზაციის ტესტებს ხარისხის კონტროლისთვის გამოყენებულ ვიზუალურ ეფექტებზე, რათა დარწმუნდეს, რომ მნიშვნელოვანი მომენტები არ არის მხოლოდ შენიღბული კიდეების დეტექტორები [5]. იგივე მოდელი, განსხვავებული ახსნა-განმარტებები სხვადასხვა აუდიტორიისთვის - მომხმარებლებისთვის, ოპერაციების შემსრულებლებისთვის და აუდიტორებისთვის.


უხერხული ნაწილი: ახსნა-განმარტებებმა შეიძლება შეცდომაში შეგვიყვანოს 🙃

ზოგიერთი მნიშვნელოვანი მეთოდი დამაჯერებლად გამოიყურება მაშინაც კი, როდესაც ისინი არ არის დაკავშირებული გაწვრთნილ მოდელთან ან მონაცემებთან. სანდოობის შემოწმებებმა აჩვენა, რომ გარკვეულმა ტექნიკამ შეიძლება ვერ გაიაროს ძირითადი ტესტები, რაც გაგების ცრუ შეგრძნებას იძლევა. თარგმანი: ლამაზი სურათები შეიძლება იყოს სუფთა თეატრი. თქვენი ახსნის მეთოდებისთვის ჩაამატეთ დამადასტურებელი ტესტები [5].

ასევე, მეჩხერი ≠ გულწრფელი. ერთწინადადება მიზეზმა შეიძლება დამალოს დიდი ურთიერთქმედებები. ახსნაში მცირე წინააღმდეგობები შეიძლება რეალური მოდელის გაურკვევლობაზე ან უბრალოდ ხმაურზე მიუთითებდეს. თქვენი ამოცანაა გაარკვიოთ, რომელი რომელია.


მმართველობა, პოლიტიკა და გამჭვირვალობის მზარდი სტანდარტი 🏛️

პოლიტიკის შემქმნელები კონტექსტისთვის შესაბამის გამჭვირვალობას ელიან. ევროკავშირში ხელოვნური ინტელექტის შესახებ კანონი განსაზღვრავს ისეთ ვალდებულებებს, როგორიცაა ადამიანების ინფორმირება ხელოვნურ ინტელექტთან ურთიერთქმედების შესახებ კონკრეტულ შემთხვევებში და ხელოვნური ინტელექტის მიერ გენერირებული ან მანიპულირებული კონტენტის შესაბამისი შეტყობინებებითა და ტექნიკური საშუალებებით მონიშვნა, გამონაკლისების გარდა (მაგ., კანონიერი გამოყენება ან დაცული გამოხატულება) [2]. ინჟინერიის მხრივ, NIST უზრუნველყოფს პრინციპებზე ორიენტირებულ ხელმძღვანელობას, რათა დაეხმაროს გუნდებს ისეთი ახსნა-განმარტებების შემუშავებაში, რომელთა გამოყენებაც ადამიანებს რეალურად შეუძლიათ [1].


როგორ ავირჩიოთ ახსნადი ხელოვნური ინტელექტის მიდგომა - სწრაფი რუკა 🗺️

  1. დაიწყეთ გადაწყვეტილებიდან - ვის სჭირდება ახსნა და რა ქმედებისთვის?

  2. მეთოდი მოდელსა და გარემოს შეუსაბამეთ

    • გრადიენტული მეთოდები ღრმა ბადეებისთვის მხედველობაში ან NLP-ში [1].

    • SHAP ან LIME ცხრილური მოდელებისთვის, როდესაც გჭირდებათ მახასიათებლების ატრიბუცია [3][4].

    • მომხმარებელთან ურთიერთობისას არსებული პრობლემების მოგვარებისა და აპელაციების კონტრფაქტები [1].

  3. ხარისხის კარიბჭეების დაყენება - სიზუსტის შემოწმება, სტაბილურობის ტესტები და ადამიანის მიერ კონტროლირებადი მიმოხილვები [5].

  4. მასშტაბის დაგეგმვა - განმარტებები უნდა იყოს ჟურნალირებადი, ტესტირებადი და აუდიტირებადი.

  5. დოკუმენტირების შეზღუდვები - არცერთი მეთოდი არ არის იდეალური; ჩაწერეთ ცნობილი წარუმატებლობის რეჟიმები.

პატარა დეტალი - თუ ახსნა-განმარტებების შემოწმება მოდელების ტესტირების მსგავსად არ შეგიძლიათ, შესაძლოა ახსნა-განმარტებები არ გქონდეთ, მხოლოდ ვიბრაციები.


შედარების ცხრილი - ახსნილი ხელოვნური ინტელექტის საერთო ვარიანტები 🧮

განზრახ ოდნავ უცნაურია; რეალური ცხოვრება არეულია.

ინსტრუმენტი / მეთოდი საუკეთესო აუდიტორია ფასი რატომ მუშაობს ეს მათთვის
შაფ მონაცემთა მეცნიერები, აუდიტორები უფასო/ღია დამატებითი ატრიბუციები - თანმიმდევრული, შედარებადი [3].
ლაიმი პროდუქტის გუნდები, ანალიტიკოსები უფასო/ღია სწრაფი ადგილობრივი სუროგატები; ადვილად მოსასმენი; ზოგჯერ ხმაურიანი [4].
ინტეგრირებული გრადიენტები ML ინჟინრები ღრმა ქსელებში უფასო/ღია გრადიენტზე დაფუძნებული ატრიბუციები გონივრული აქსიომებით [1].
კონტრფაქტები საბოლოო მომხმარებლები, შესაბამისობა, ოპერაციები შერეული პირდაპირ პასუხობს, თუ რა უნდა შეიცვალოს; ძალიან ქმედითია [1].
წესების სიები / ხეები რისკის მფლობელები, მენეჯერები უფასო/ღია შინაგანი ინტერპრეტაცია; გლობალური შეჯამებები.
ნაწილობრივი დამოკიდებულება მოდელის შემქმნელები, ხარისხის კონტროლი უფასო/ღია ვიზუალიზაციას უკეთებს საშუალო ეფექტებს დიაპაზონების მიხედვით.
პროტოტიპები და ეგზემპლარები დიზაინერები, მიმომხილველები უფასო/ღია კონკრეტული, ადამიანისთვის მოსახერხებელი მაგალითები; ადვილად დასაკავშირებელი.
ხელსაწყოების პლატფორმები პლატფორმის გუნდები, მმართველობა კომერციული მონიტორინგი + ახსნა + აუდიტი ერთ სივრცეში.

დიახ, უჯრედები არათანაბარია. ეს სიცოცხლეა.


მარტივი სამუშაო პროცესი ახსნილი ხელოვნური ინტელექტისთვის წარმოებაში 🛠️

ნაბიჯი 1 - განსაზღვრეთ კითხვა.
გადაწყვიტეთ, ვისი საჭიროებებია ყველაზე მნიშვნელოვანი. მონაცემთა მეცნიერისთვის ახსნა-განმარტება არ არის იგივე, რაც მომხმარებლისთვის სააპელაციო წერილის დაწერა.

ნაბიჯი 2 - მეთოდის არჩევა კონტექსტის მიხედვით.

  • სესხების რისკის ცხრილური მოდელი - დაიწყეთ SHAP-ით ადგილობრივი და გლობალური შემთხვევებისთვის; დაამატეთ კონტრფაქტები რეგრესის შემთხვევაში [3][1].

  • ხედვის კლასიფიკატორი - გამოიყენეთ ინტეგრირებული გრადიენტები ან მსგავსი; დაამატეთ საღი აზრის შემოწმება, რათა თავიდან აიცილოთ მნიშვნელოვანი ხაფანგები [1][5].

ნაბიჯი 3 - ახსნა-განმარტებების დადასტურება.
ჩაატარეთ ახსნა-განმარტების თანმიმდევრულობის ტესტები; შეაფერხეთ შეყვანილი მონაცემები; შეამოწმეთ, შეესაბამება თუ არა მნიშვნელოვანი მახასიათებლები დარგის ცოდნას. თუ თქვენი ძირითადი მახასიათებლები ყოველი გადამზადების შემდეგ მკვეთრად გადაიხრება, შეაჩერეთ.

ნაბიჯი 4 - ახსნა-განმარტებების გამოყენებადობა.
დიაგრამებთან ერთად მარტივი ენით მოყვანილი არგუმენტები. ჩართეთ შემდეგი საუკეთესო ქმედებები. საჭიროების შემთხვევაში, შესთავაზეთ ბმულები შედეგების გასაპროტესტებლად - სწორედ ეს არის გამჭვირვალობის წესების მიზანი [2].

ნაბიჯი 5 - მონიტორინგი და ჟურნალირება.
დროთა განმავლობაში ახსნა-განმარტებების სტაბილურობის თვალყურის დევნება. შეცდომაში შემყვანი ახსნა-განმარტებები რისკის სიგნალია და არა კოსმეტიკური ხარვეზი.


ღრმა ანალიზი 1: ლოკალური და გლობალური ახსნა-განმარტებები პრაქტიკაში 🔍

  • „ლოკალური“ ადამიანს ეხმარება გააცნობიეროს, თუ რატომ მისმა საქმემ ასეთი გადაწყვეტილება - რაც გადამწყვეტია მგრძნობიარე კონტექსტებში.

  • Global ეხმარება თქვენს გუნდს უზრუნველყოს, რომ მოდელის მიერ შეძენილი ქცევა შეესაბამებოდეს პოლიტიკასა და დარგის ცოდნას.

ორივე გააკეთეთ. შეგიძლიათ, სერვისის ოპერაციებისთვის ლოკალურად დაიწყოთ, შემდეგ კი გლობალური მონიტორინგი დაამატოთ გადახრისა და სამართლიანობის განხილვისთვის.


ღრმა მიმოხილვა 2: სააპელაციო და სააპელაციო სარჩელის კონტრფაქტები 🔄

ადამიანებს სურთ იცოდნენ მინიმალური ცვლილება უკეთესი შედეგის მისაღწევად. კონტრფაქტობრივი ახსნა-განმარტებები ზუსტად ამას აკეთებს - ცვლის ამ კონკრეტულ ფაქტორებს და შედეგი იცვლება [1]. ფრთხილად: კონტრფაქტულმა ახსნამ უნდა გაითვალისწინოს შესაძლებლობა და სამართლიანობა . უცვლელი ატრიბუტის შეცვლის შესახებ ვინმესთვის მითითება გეგმა კი არა, საგანგაშო სიგნალია.


ღრმა ანალიზი 3: საღი აზრის შემოწმების მნიშვნელოვანი დეტალი 🧪

თუ იყენებთ ხაზგასმით აღწერილ რუკებს ან გრადიენტებს, ჩაატარეთ საღი აზრის შემოწმება. ზოგიერთი ტექნიკა თითქმის იდენტურ რუკებს წარმოქმნის მაშინაც კი, როდესაც მოდელის პარამეტრებს შემთხვევითობის პრინციპით არჩევთ - რაც იმას ნიშნავს, რომ ისინი შეიძლება ხაზს უსვამდნენ კიდეებს და ტექსტურებს და არა შესწავლილ მტკიცებულებებს. შესანიშნავი სითბური რუკები, შეცდომაში შემყვანი ისტორია. ჩადეთ ავტომატური შემოწმებები CI/CD-ში [5].


ხშირად დასმული კითხვები, რომლებიც ყველა შეხვედრაზე ჩნდება 🤓

კ: ახსნილი ხელოვნური ინტელექტი იგივეა, რაც სამართლიანობა?
პ: არა. ახსნა-განმარტებები გეხმარებათ დანახვაში ; სამართლიანობა არის თვისება, რომელიც უნდა გამოსცადოთ და აღასრულოთ . დაკავშირებული, არა იდენტური.

კ: უფრო მარტივი მოდელები ყოველთვის უკეთესია?
პ: ზოგჯერ. მაგრამ მარტივი და არასწორი მაინც არასწორია. აირჩიეთ უმარტივესი მოდელი, რომელიც აკმაყოფილებს შესრულებისა და მართვის მოთხოვნებს.

კ: გაჟონავს თუ არა ახსნა-განმარტებები ინტელექტუალურ საკუთრებას?
პ: შეიძლება. დააკალიბრეთ დეტალები აუდიტორიისა და რისკის მიხედვით; დოკუმენტირებული აღწერეთ რას ამჟღავნებთ და რატომ.

კ: შეგვიძლია უბრალოდ ფუნქციების მნიშვნელობის ჩვენება და დასრულების შემდეგ ყველაფრის დადასტურება?
პ: არა. მნიშვნელობის ზოლები კონტექსტის ან რესურსის გარეშე დეკორაციას წარმოადგენს.


ძალიან გრძელი, არ წამიკითხავს ვერსია და დასკვნითი შენიშვნები 🌯

ახსნადი ხელოვნური ინტელექტი არის დისციპლინა, რომელიც მოდელის ქცევას გასაგებ და სასარგებლოს ხდის მასზე დამოკიდებული ადამიანებისთვის. საუკეთესო ახსნა-განმარტებებს ახასიათებთ სანდოობა, სტაბილურობა და მკაფიო აუდიტორია. ისეთ მეთოდებს, როგორიცაა SHAP, LIME, ინტეგრირებული გრადიენტები და კონტრფაქტები, თითოეულს აქვს ძლიერი მხარეები - გამოიყენეთ ისინი განზრახ, მკაცრად შეამოწმეთ და წარმოადგინეთ ისინი ენაზე, რომელზეც ადამიანებს შეუძლიათ მოქმედება. და გახსოვდეთ, რომ დახვეწილი ვიზუალი შეიძლება თეატრალური იყოს; მოითხოვეთ მტკიცებულებები, რომ თქვენი ახსნა-განმარტებები ასახავდეს მოდელის რეალურ ქცევას. ჩართეთ ახსნა-განმარტება თქვენი მოდელის სასიცოცხლო ციკლში - ეს არ არის პრიალა დამატება, ეს არის ნაწილი იმისა, თუ როგორ ახორციელებთ პასუხისმგებლობით.

გულწრფელად რომ ვთქვა, ეს ცოტათი ჰგავს თქვენი მოდელისთვის ხმის მიცემას. ზოგჯერ ის ბუტბუტებს; ზოგჯერ ზედმეტად განმარტავს; ზოგჯერ კი ზუსტად იმას ამბობს, რისი მოსმენაც გჭირდებოდათ. თქვენი საქმეა, დაეხმაროთ მას სწორი რამის თქმაში, სწორ ადამიანთან, სწორ დროს. და დაამატეთ ერთი-ორი კარგი იარლიყი. 🎯


ცნობები

[1] NIST IR 8312 - ახსნილი ხელოვნური ინტელექტის ოთხი პრინციპი . სტანდარტებისა და ტექნოლოგიების ეროვნული ინსტიტუტი. წაიკითხეთ მეტი

[2] რეგულაცია (EU) 2024/1689 - ხელოვნური ინტელექტის შესახებ კანონი (ოფიციალური ჟურნალი/EUR-Lex) . წაიკითხეთ მეტი

[3] ლუნდბერგი და ლი (2017) - „მოდელის პროგნოზების ინტერპრეტაციის ერთიანი მიდგომა“. arXiv. წაიკითხეთ მეტი

[4] რიბეირო, სინგჰი და გესტრინი (2016) - „რატომ უნდა ვენდო?“ ნებისმიერი კლასიფიკატორის პროგნოზების ახსნა. arXiv. წაიკითხეთ მეტი

[5] ადებაიო და სხვ. (2018) - „მნიშვნელობის რუკების სანდოობის შემოწმება“. NeurIPS (PDF ფორმატში). წაიკითხეთ მეტი

იპოვეთ უახლესი ხელოვნური ინტელექტი ოფიციალურ ხელოვნური ინტელექტის ასისტენტების მაღაზიაში

ჩვენს შესახებ

ბლოგზე დაბრუნება