რა არის ხელოვნური ინტელექტის ეთიკა?

რა არის ხელოვნური ინტელექტის ეთიკა?

ტერმინი ამპარტავნულად ჟღერს, მაგრამ მიზანი ძალიან პრაქტიკულია: ხელოვნური ინტელექტის სისტემების შექმნა, რომლებსაც ადამიანები ენდობიან - რადგან ისინი შექმნილია, აგებულია და გამოიყენება ისე, რომ პატივს სცემენ ადამიანის უფლებებს, ამცირებენ ზიანს და რეალურ სარგებელს მოაქვთ. სულ ესაა - ძირითადად. 

სტატიები, რომელთა წაკითხვაც შეიძლება მოგეწონოთ ამის შემდეგ:

🔗 რა არის MCP ხელოვნურ ინტელექტში?
განმარტავს მოდულური გამოთვლითი პროტოკოლი და მისი როლი ხელოვნურ ინტელექტში.

🔗 რა არის Edge AI?
განხილულია, თუ როგორ იძლევა კიდეებზე დაფუძნებული დამუშავება უფრო სწრაფ, ლოკალურ ხელოვნურ ინტელექტზე დაფუძნებულ გადაწყვეტილებებს.

🔗 რა არის გენერაციული ხელოვნური ინტელექტი
წარმოგიდგენთ მოდელებს, რომლებიც ქმნიან ტექსტს, სურათებს და სხვა ორიგინალურ კონტენტს.

🔗 რა არის აგენტური ხელოვნური ინტელექტი?
აღწერს ავტონომიურ ხელოვნური ინტელექტის აგენტებს, რომლებსაც შეუძლიათ მიზანმიმართული გადაწყვეტილებების მიღება.


რა არის ხელოვნური ინტელექტის ეთიკა? მარტივი განმარტება 🧭

ხელოვნური ინტელექტის ეთიკა არის პრინციპების, პროცესებისა და დამცავი ბარიერების ერთობლიობა, რომელიც განსაზღვრავს, თუ როგორ ვქმნით, ვავითარებთ, ვნერგავთ და ვმართავთ ხელოვნურ ინტელექტს, რათა მან დაიცვას ადამიანის უფლებები, სამართლიანობა, ანგარიშვალდებულება, გამჭვირვალობა და სოციალური სიკეთე. წარმოიდგინეთ ეს, როგორც ალგორითმების ყოველდღიური წესები - დამატებითი შემოწმებებით იმ უცნაური კუთხეებისთვის, სადაც შეიძლება რაღაც არასწორად წავიდეს.

ამას გლობალური კრიტერიუმები ადასტურებს: იუნესკოს რეკომენდაცია ადამიანის უფლებებს, ადამიანის ზედამხედველობასა და სამართლიანობას ამახვილებს ყურადღებას, გამჭვირვალობასა და სამართლიანობაზე, როგორც უდავო პრინციპებზე [1]. ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპები მიზნად ისახავს სანდო ხელოვნური ინტელექტის შექმნას, რომელიც პატივს სცემს დემოკრატიულ ღირებულებებს და ამავდროულად პრაქტიკული რჩება პოლიტიკისა და ინჟინერიის გუნდებისთვის [2].

მოკლედ, ხელოვნური ინტელექტის ეთიკა კედელზე ჩამოკიდებული პლაკატი არ არის. ეს არის სახელმძღვანელო, რომელსაც გუნდები იყენებენ რისკების პროგნოზირებისთვის, სანდოობის დასამტკიცებლად და ადამიანების დასაცავად. NIST-ის ხელოვნური ინტელექტის რისკების მართვის ჩარჩო ეთიკას ხელოვნური ინტელექტის მთელი სასიცოცხლო ციკლის განმავლობაში აქტიური რისკების მართვის მსგავსად განიხილავს [3].

 

ხელოვნური ინტელექტის ეთიკა

რა განაპირობებს ხელოვნური ინტელექტის ეთიკას ✅

აი, პირდაპირი ვერსია. კარგი ხელოვნური ინტელექტის ეთიკის პროგრამა:

  • არის ცოცხალი, არა ლამინირებული - პოლიტიკა, რომელიც რეალურ საინჟინრო პრაქტიკასა და მიმოხილვებს წარმართავს.

  • პრობლემის ჩამოყალიბებიდან იწყება - თუ მიზანი არასწორია, მას სამართლიანობის ვერანაირი გამოსწორება ვერ გადაარჩენს.

  • დოკუმენტები აქვეყნებს გადაწყვეტილებებს - რატომ ეს მონაცემები, რატომ ეს მოდელი, რატომ ეს ზღვარი.

  • კონტექსტის გათვალისწინებით ჩატარებული ტესტები - შეფასება ქვეჯგუფის მიხედვით და არა მხოლოდ საერთო სიზუსტით (NIST-ის ძირითადი თემა) [3].

  • აჩვენებს მის მუშაობას - მოდელის ბარათები, მონაცემთა ნაკრების დოკუმენტაცია და მომხმარებლის მკაფიო კომუნიკაციები [5].

  • ზრდის ანგარიშვალდებულებას - დასახელებულ მფლობელებს, ესკალაციის გზებს, აუდიტის შესაძლებლობას.

  • ღიად აბალანსებს კომპრომისებს - უსაფრთხოება vs. სარგებლიანობა vs. კონფიდენციალურობა, ჩაწერილი.

  • დაკავშირებულია კანონთან - რისკზე დაფუძნებულ მოთხოვნებთან, რომლებიც გავლენას ახდენს კონტროლის მასშტაბირებაზე (იხ. ევროკავშირის ხელოვნური ინტელექტის შესახებ კანონი) [4].

თუ ეს არცერთ პროდუქტთან დაკავშირებულ გადაწყვეტილებას არ ცვლის, ეს ეთიკა კი არა, დეკორია.


სწრაფი პასუხი მთავარ კითხვაზე: რა არის ხელოვნური ინტელექტის ეთიკა? 🥤

ეს არის ის, თუ როგორ პასუხობენ გუნდები სამ განმეორებად კითხვას, არაერთხელ:

  1. ეს უნდა ავაშენოთ?

  2. თუ კი, როგორ შევამციროთ ზიანი და დავამტკიცოთ ის?

  3. როდესაც საქმეები სხვაგვარად მიდის, ვინ არის პასუხისმგებელი და რა ხდება შემდეგ?

მოსაწყენად პრაქტიკული. გასაკვირად რთული. ღირს.


60 წამიანი მინი-ქეისი (პრაქტიკული გამოცდილება) 📎

ფინტექ გუნდი თაღლითობის მოდელს დიდი საერთო სიზუსტით აგზავნის. ორი კვირის შემდეგ, კონკრეტული რეგიონიდან მხარდაჭერის ბილეთების რაოდენობა მკვეთრად იზრდება - ლეგიტიმური გადახდები იბლოკება. ქვეჯგუფის მიმოხილვა აჩვენებს, რომ ამ ლოკალისთვის დამახსოვრება საშუალოზე 12 პუნქტით დაბალია. გუნდი ხელახლა ამოწმებს მონაცემთა დაფარვას, უკეთესად წარმოაჩენს და აქვეყნებს განახლებულ მოდელის ბარათს , რომელიც ადასტურებს ცვლილებას, ცნობილ გაფრთხილებებს და მომხმარებლის მიმართვის გზას. სიზუსტე ერთი პუნქტით იკლებს; მომხმარებლის ნდობა იზრდება. ეს არის ეთიკა, როგორც რისკების მართვა და მომხმარებლის პატივისცემა და არა პოსტერი [3][5].


ინსტრუმენტები და ჩარჩოები, რომელთა გამოყენებაც რეალურად შეგიძლიათ 📋

(განზრახ ჩასმულია მცირე უცნაურობები - ეს რეალური ცხოვრებაა.)

ინსტრუმენტი ან ჩარჩო აუდიტორია ფასი რატომ მუშაობს შენიშვნები
NIST-ის ხელოვნური ინტელექტის რისკების მართვის ჩარჩო პროდუქტი, რისკი, პოლიტიკა უფასო მკაფიო ფუნქციები - მართვა, რუკის შექმნა, გაზომვა, მართვა - გუნდების გასწორება ნებაყოფლობითი, ფართოდ მოხსენიებული [3]
ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპები აღმასრულებლები, პოლიტიკის შემქმნელები უფასო ღირებულებები + პრაქტიკული რჩევები სანდო ხელოვნური ინტელექტისთვის მყარი მმართველობა ჩრდილოეთის ვარსკვლავი [2]
ევროკავშირის ხელოვნური ინტელექტის აქტი (რისკზე დაფუძნებული) იურიდიული, შესაბამისობის, ტექნიკური დირექტორების უფასო* რისკის დონეები ადგენს პროპორციულ კონტროლს მაღალი ზემოქმედების მქონე გამოყენებისთვის შესაბამისობის ხარჯები განსხვავდება [4]
მოდელის ბარათები ML ინჟინრები, PM-ები უფასო სტანდარტიზებს მოდელის არსს, მის თვისებებს და სად არის ის წარუმატებელი. ნაშრომი + მაგალითები არსებობს [5]
მონაცემთა ნაკრების დოკუმენტაცია („მონაცემთა ფურცლები“) მონაცემთა მეცნიერები უფასო განმარტავს მონაცემთა წარმოშობას, დაფარვას, თანხმობას და რისკებს მოეპყარით მას, როგორც კვების ეტიკეტს

ღრმა ანალიზი 1 - პრინციპები მოქმედებაში, არა თეორიაში 🏃

  • სამართლიანობა - შეაფასეთ შესრულება დემოგრაფიული მონაცემებისა და კონტექსტების მიხედვით; საერთო მაჩვენებლები მალავს ზიანს [3].

  • ანგარიშვალდებულება - მონაცემების, მოდელისა და განლაგების გადაწყვეტილებების მფლობელების დანიშვნა. გადაწყვეტილებების ჟურნალების შენახვა.

  • გამჭვირვალობა - გამოიყენეთ სამოდელო ბარათები; უთხარით მომხმარებლებს, თუ რამდენად ავტომატიზირებულია გადაწყვეტილების მიღება და რა საშუალებები არსებობს [5].

  • ადამიანის ზედამხედველობა - მაღალი რისკის შემცველი გადაწყვეტილებების მიღების პროცესში ადამიანების ჩართვა/ჩართულობა რეალური შეჩერების/გადაფარვის უფლებით (რაც აშკარად წინა პლანზეა წამოწეული იუნესკოს მიერ) [1].

  • კონფიდენციალურობა და უსაფრთხოება - მინიმუმამდე დაიყვანეთ და დაიცავით მონაცემები; გაითვალისწინეთ ინფერენციის დროის გაჟონვა და შემდგომი მონაცემების ბოროტად გამოყენება.

  • კეთილგანწყობა - სოციალური სარგებლის დემონსტრირება და არა მხოლოდ ძირითადი მაჩვენებლების (OECD ამ ბალანსს აყალიბებს) [2].

პატარა გადახვევა: გუნდები ზოგჯერ საათობით კამათობენ მეტრული სახელწოდებების შესახებ და უგულებელყოფენ ფაქტობრივ ზიანზე საკითხს. სასაცილოა, როგორ ხდება ეს.


ღრმა ანალიზი 2 - რისკები და მათი გაზომვის მეთოდები 📏

ეთიკური ხელოვნური ინტელექტი კონკრეტული ხდება, როდესაც ზიანს გაზომვად რისკად აღიქვამთ:

  • კონტექსტური რუკა - ვის ეხება ეს პირდაპირ და ირიბად? რა გადაწყვეტილების მიღების უფლებამოსილება აქვს სისტემას?

  • მონაცემთა ვარგისიანობა - წარმოდგენა, დრიფტი, ეტიკეტირების ხარისხი, თანხმობის გზები.

  • მოდელის ქცევა - წარუმატებლობის რეჟიმები განაწილების ცვლის, შეწინააღმდეგებითი მოთხოვნების ან მავნე შეყვანის დროს.

  • ზემოქმედების შეფასება - სიმძიმე × ალბათობა, შემარბილებელი ღონისძიებები და ნარჩენი რისკი.

  • სასიცოცხლო ციკლის კონტროლი - პრობლემის ჩამოყალიბებიდან დანერგვის შემდგომ მონიტორინგამდე.

NIST ამას ოთხ ფუნქციად ყოფს, რომელთა გამოყენებაც გუნდებს შეუძლიათ „ბორბლის ხელახლა გამოგონების“ გარეშე: მართვა, რუკის შედგენა, გაზომვა, მართვა [3].


ღრმა ჩაყვინთვა 3 - დოკუმენტაცია, რომელიც მოგვიანებით გიშველის 🗂️

ორი მოკრძალებული არტეფაქტი ნებისმიერ სლოგანზე მეტს აკეთებს:

  • მოდელის ბარათები - რისთვის არის მოდელი, როგორ შეფასდა, სად არის წარუმატებელი, ეთიკური მოსაზრებები და გაფრთხილებები - მოკლე, სტრუქტურირებული, ადვილად წასაკითხი [5].

  • მონაცემთა ნაკრების დოკუმენტაცია („მონაცემთა ფურცლები“) - რატომ არსებობს ეს მონაცემები, როგორ შეგროვდა ისინი, ვინ არის წარმოდგენილი, რა ხარვეზებია ცნობილი და რა გამოყენებაა რეკომენდებული.

თუ ოდესმე მოგიწიათ მარეგულირებლებისთვის ან ჟურნალისტებისთვის ახსნა, თუ რატომ მოიქცა მოდელი ცუდად, ამის დაწერისთვის თქვენს წარსულ „მეს“ მადლობას გადაუხდით. მომავალში თქვენ იყიდით წარსულში არსებულ ყავას.


ღრმა ანალიზი 4 - მმართველობა, რომელიც რეალურად კბენს 🧩

  • რისკის დონეების განსაზღვრა - რისკზე დაფუძნებული იდეის გამოყენება, რათა მაღალი ზემოქმედების მქონე გამოყენების შემთხვევები უფრო ღრმად იქნას შესწავლილი [4].

  • ეტაპის კარიბჭეები - ეთიკის შემოწმება მიღებისას, გაშვებამდე და გაშვების შემდეგ. არა თხუთმეტი კარიბჭე. სამი საკმარისია.

  • მოვალეობების გამიჯვნა - დეველოპერები გვთავაზობენ, რისკ-პარტნიორები ამოწმებენ, ლიდერები ხელს აწერენ. მკაფიო საზღვრები.

  • ინციდენტზე რეაგირება - ვინ აჩერებს მოდელს, როგორ ეცნობებათ მომხმარებლებს, როგორ გამოიყურება გამოსწორების პროცესი.

  • დამოუკიდებელი აუდიტი - პირველ რიგში შიდა; გარე, სადაც დაინტერესებული მხარეები მოითხოვენ.

  • ტრენინგი და წახალისება - პრობლემების ადრეულ ეტაპზე გამოაშკარავება და არა მათი დამალვა.

მოდით, ვიყოთ გულახდილები: თუ მმართველობა არასდროს ამბობს უარს , ეს მმართველობა არ არის.


ღრმა მიმოხილვა 5 - ადამიანები ინფორმირებულები არიან და არა რეკვიზიტები 👩⚖️

ადამიანის ზედამხედველობა არ არის მონიშვნის ველი - ეს დიზაინის არჩევანია:

  • როდესაც ადამიანები იღებენ გადაწყვეტილებას - მკაფიო ზღვრები, თუ რა უნდა გადახედოს ადამიანმა, განსაკუთრებით მაღალი რისკის მქონე შედეგების შემთხვევაში.

  • გადაწყვეტილების მიმღებთათვის ახსნა-განმარტება - მიეცით ადამიანს როგორც მიზეზი , ასევე გაურკვევლობა .

  • მომხმარებლის უკუკავშირის ციკლები - მომხმარებლებს საშუალებას აძლევს გაასაჩივრონ ან შეასწორონ ავტომატიზირებული გადაწყვეტილებები.

  • ხელმისაწვდომობა - ინტერფეისები, რომელთა გაგება და რეალურად გამოყენება სხვადასხვა მომხმარებელს შეუძლია.

იუნესკოს მითითებები აქ მარტივია: ადამიანის ღირსება და ზედამხედველობა ძირითადია და არა არჩევითი. შექმენით პროდუქტი ისე, რომ ადამიანებს შეეძლოთ ჩარევა ზიანის მოახლოებამდე [1].


შენიშვნა - შემდეგი საზღვარი: ნეიროტექნოლოგია 🧠

როდესაც ხელოვნური ინტელექტი ნეიროტექნოლოგიასთან კვეთს, გონებრივი კონფიდენციალურობა და აზროვნების თავისუფლება დიზაინის რეალურ მოსაზრებებად იქცევა. იგივე სახელმძღვანელო მოქმედებს: უფლებებზე ორიენტირებული პრინციპები [1], დიზაინით სანდო მმართველობა [2] და პროპორციული დაცვის ზომები მაღალი რისკის მქონე გამოყენებისთვის [4]. დამცავი ბარიერების ადრეული აშენება მათი მოგვიანებით ჭანჭიკებით დამაგრების ნაცვლად.


როგორ პასუხობენ გუნდები კითხვას: რა არის ხელოვნური ინტელექტის ეთიკა? პრაქტიკაში - სამუშაო პროცესი 🧪

სცადეთ ეს მარტივი ციკლი. ის იდეალური არ არის, მაგრამ ჯიუტად ეფექტურია:

  1. მიზნის შემოწმება - რა ადამიანურ პრობლემას ვწყვეტთ და ვინ სარგებლობს ან რისკავს?

  2. კონტექსტური რუკა - დაინტერესებული მხარეები, გარემო, შეზღუდვები, ცნობილი საფრთხეები.

  3. მონაცემთა გეგმა - წყაროები, თანხმობა, წარმომადგენლობითობა, შენახვა, დოკუმენტაცია.

  4. უსაფრთხოებისთვის განკუთვნილი დიზაინი - შეჯიბრებითი ტესტირება, წითელი გუნდური მუშაობა, დიზაინის მიხედვით კონფიდენციალურობის დაცვა.

  5. სამართლიანობის განსაზღვრა - აირჩიეთ დომენისთვის შესაფერისი მეტრიკები; დააფიქსირეთ კომპრომისები.

  6. ახსნის გეგმა - რას ახსნიან, ვის და როგორ დაადასტურებთ მის სარგებლიანობას.

  7. მოდელის ბარათი - წინასწარ შექმენით პროექტი, განაახლეთ პროცესში, გამოაქვეყნეთ გაშვებისას [5].

  8. მმართველობის კარიბჭეები - რისკების მიმოხილვა ანგარიშვალდებულ მფლობელებთან; სტრუქტურა NIST-ის ფუნქციების გამოყენებით [3].

  9. გაშვების შემდგომი მონიტორინგი - მეტრიკები, დრიფტის შეტყობინებები, ინციდენტების სახელმძღვანელოები, მომხმარებლის მიმართვები.

თუ ნაბიჯი მძიმედ გეჩვენებათ, შეაფასეთ ის რისკის შესაბამისად. სწორედ ეს არის ხრიკი. ორთოგრაფიული კორექტირების ბოტის ზედმეტი ინჟინერია არავის ეხმარება.


ეთიკა vs. შესაბამისობა - პიკანტური, მაგრამ აუცილებელი განსხვავება 🌶️

  • ეთიკა კითხულობს: ეს სწორია ადამიანებისთვის?

  • შესაბამისობა კითხულობს: შეესაბამება თუ არა ეს წესებს?

ორივე გჭირდებათ. ევროკავშირის რისკებზე დაფუძნებული მოდელი შეიძლება იყოს თქვენი შესაბამისობის ხერხემალი, მაგრამ თქვენი ეთიკის პროგრამა უნდა გასცდეს მინიმუმებს - განსაკუთრებით ბუნდოვან ან ახალი გამოყენების შემთხვევებში [4].

სწრაფი (არასრულყოფილი) მეტაფორა: მორჩილება ღობეა; ეთიკა - მწყემსი. ღობე საზღვრებში გაკავებს; მწყემსი კი სწორი გზით სიარულის საშუალებას გაძლევს.


გავრცელებული ხაფანგები - და რა უნდა გააკეთოთ ამის ნაცვლად 🚧

  • ხაფანგი: ეთიკის თეატრი - უცნაური პრინციპები რესურსების გარეშე.
    გამოსწორება: დროის, მფლობელების და საკონტროლო წერტილების გადახედვა.

  • ხაფანგი: ზიანის საშუალოდ გამოთვლა - შესანიშნავი საერთო მეტრიკა მალავს ქვეჯგუფის წარუმატებლობას.
    გამოსწორება: ყოველთვის შეაფასეთ შესაბამისი ქვეპოპულაციების მიხედვით [3].

  • ხაფანგი: საიდუმლოების შენიღბვა უსაფრთხოების სახით - დეტალების დამალვა მომხმარებლებისგან.
    გამოსწორება: შესაძლებლობების, შეზღუდვებისა და საშუალებების გამჟღავნება მარტივი ენით [5].

  • ნაკლი: აუდიტი ბოლოს - პრობლემების აღმოჩენა გაშვებამდე.
    გამოსწორება: მარცხნივ გადაწევა - ეთიკა დიზაინისა და მონაცემთა შეგროვების ნაწილად აქციეთ.

  • ნაკლი: საკონტროლო სიები განსჯის გარეშე - ფორმების დაცვა აზრის გარეშე.
    გამოსწორება: შაბლონების შერწყმა ექსპერტების მიმოხილვასთან და მომხმარებლის კვლევასთან.


ხშირად დასმული კითხვები - კითხვები, რომლებსაც ისედაც გკითხავენ ❓

ხელოვნური ინტელექტის ეთიკა ანტიინოვაციაა?
არა. ეს სასარგებლო ინოვაციაა. ეთიკა თავს არიდებს ისეთ ჩიხებს, როგორიცაა მიკერძოებული სისტემები, რომლებიც უარყოფით რეაქციას ან სამართლებრივ პრობლემებს იწვევს. ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ჩარჩოები აშკარად ხელს უწყობს უსაფრთხო ინოვაციებს [2].

გვჭირდება ეს, თუ ჩვენი პროდუქტი დაბალი რისკის შემცველია?
დიახ, მაგრამ უფრო მსუბუქი. გამოიყენეთ პროპორციული კონტროლი. რისკზე დაფუძნებული ეს იდეა სტანდარტულია ევროკავშირის მიდგომაში [4].

რომელი დოკუმენტებია აუცილებელი?
მინიმუმ: თქვენი ძირითადი მონაცემთა ნაკრებების მონაცემთა ნაკრების დოკუმენტაცია, თითოეული მოდელის მოდელის ბარათი და გამოშვების შესახებ გადაწყვეტილების ჟურნალი [5].

ვის ეკუთვნის ხელოვნური ინტელექტის ეთიკა?
ყველას ეკუთვნის ქცევა, მაგრამ პროდუქტის, მონაცემთა მეცნიერებისა და რისკების გუნდებს დასახელებული პასუხისმგებლობები სჭირდებათ. NIST-ის ფუნქციები კარგ საყრდენს წარმოადგენს [3].


დიდი ხანია არ წამიკითხავს - დასკვნითი შენიშვნები 💡

თუ ამ ყველაფერს ზერელედ გადახედეთ, აი, რა არის არსი: რა არის ხელოვნური ინტელექტის ეთიკა? ეს არის პრაქტიკული დისციპლინა ხელოვნური ინტელექტის შესაქმნელად, რომელსაც ადამიანები ენდობიან. დაეყრდენით ფართოდ მიღებულ მითითებებს - იუნესკოს უფლებებზე ორიენტირებულ შეხედულებას და ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის (OECD) სანდო ხელოვნური ინტელექტის პრინციპებს. გამოიყენეთ NIST-ის რისკების ჩარჩო მისი ოპერაციონალიზაციისთვის და თან დაურთეთ სამოდელო ბარათები და მონაცემთა ნაკრების დოკუმენტაცია, რათა თქვენი არჩევანი იყოს გასაგები. შემდეგ განაგრძეთ მომხმარებლების, დაინტერესებული მხარეების, თქვენივე მონიტორინგის მოსმენა და ცვლილებების შეტანა. ეთიკა ერთჯერადი არ არის; ეს ჩვევაა.

და კი, ხანდახან კურსს ასწორებ. ეს წარუმატებლობა არ არის. საქმე ამაშია. 🌱


ცნობები

  1. იუნესკო - რეკომენდაცია ხელოვნური ინტელექტის ეთიკის შესახებ (2021). ბმული

  2. ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაცია - ხელოვნური ინტელექტის პრინციპები (2019). ბმული

  3. NIST - ხელოვნური ინტელექტის რისკების მართვის ჩარჩო (AI RMF 1.0) (2023) (PDF). ბმული

  4. EUR-Lex - რეგულაცია (EU) 2024/1689 (AI აქტი). ბმული

  5. მიტჩელი და სხვ. - „მოდელის ბარათები მოდელის ანგარიშგებისთვის“ (ACM, 2019). ბმული


იპოვეთ უახლესი ხელოვნური ინტელექტი ოფიციალურ ხელოვნური ინტელექტის ასისტენტების მაღაზიაში

ჩვენს შესახებ

ბლოგზე დაბრუნება