ხელოვნური ინტელექტი ყველგანაა - ჩუმად ახარისხებს, აფასებს და გვთავაზობს. ეს მოსახერხებელია... სანამ ზოგიერთ ჯგუფს წინ არ წაიყვანს და სხვებს უკან არ ჩამორჩება. თუ გაინტერესებთ, რა არის ხელოვნური ინტელექტის მიკერძოება , რატომ ჩნდება ის დახვეწილ მოდელებშიც კი და როგორ შევამციროთ ის შესრულების შემცირების გარეშე, ეს სახელმძღვანელო თქვენთვისაა.
სტატიები, რომელთა წაკითხვაც შეიძლება მოგეწონოთ ამის შემდეგ:
🔗 რას ნიშნავს GPT?
GPT-ის სახელწოდებისა და წარმოშობის მარტივი ინგლისური განმარტება.
🔗 რა არის პროგნოზირებადი ხელოვნური ინტელექტი?
როგორ პროგნოზირებენ პროგნოზირებადი მოდელები შედეგებს ისტორიული და რეალური მონაცემებიდან.
🔗 რა არის ღია კოდის ხელოვნური ინტელექტი
განმარტება, ძირითადი უპირატესობები, გამოწვევები, ლიცენზიები და პროექტის მაგალითები.
🔗 როგორ ჩართოთ ხელოვნური ინტელექტი თქვენს ბიზნესში
ეტაპობრივი გზამკვლევი, ინსტრუმენტები, სამუშაო პროცესები და ცვლილებების მართვის აუცილებელი ელემენტები.
მოკლე განმარტება: რა არის ხელოვნური ინტელექტის მიკერძოება?
ხელოვნური ინტელექტის მიკერძოება არის ის, როდესაც ხელოვნური ინტელექტის სისტემის შედეგები სისტემატურად ემხრობა ან უპირატესად აყენებს გარკვეულ ადამიანებს ან ჯგუფებს. ეს ხშირად გამომდინარეობს დაუბალანსებელი მონაცემებიდან, ვიწრო გაზომვის არჩევანიდან ან უფრო ფართო კონტექსტიდან, რომელშიც სისტემა აგებულია და გამოიყენება. მიკერძოება ყოველთვის არ არის მავნე, მაგრამ მას შეუძლია სწრაფად გაზარდოს ზიანი, თუ უკონტროლოდ დარჩება. [1]
სასარგებლო განსხვავება: მიკერძოება გადაწყვეტილების მიღებისას დამახინჯებაა, ხოლო დისკრიმინაცია - მავნე ეფექტი, რომელიც ამ დამახინჯებას შეუძლია გამოიწვიოს მსოფლიოში. ყოველთვის არ შეგიძლიათ ყველა მიკერძოების აღმოფხვრა, მაგრამ უნდა მართოთ ის, რათა არ გამოიწვიოს უსამართლო შედეგები. [2]
რატომ გხდით მიკერძოების გაგება სინამდვილეში უკეთესს 💡
უცნაური წარმოდგენაა, არა? მაგრამ ხელოვნური ინტელექტის მიკერძოების გხდით:
-
დიზაინში უკეთესი ხართ - მყიფე ვარაუდებს უფრო ადრე შეამჩნევთ.
-
უკეთესი მმართველობა - თქვენ დოკუმენტირებთ კომპრომისებს მათი ხელით დაფიქსირების ნაცვლად.
-
უკეთესად საუბრობენ - ლიდერებთან, მარეგულირებლებთან და დაზარალებულ ადამიანებთან.
ასევე, სამართლიანობის მეტრიკისა და პოლიტიკის ენის შესწავლა მოგვიანებით დროს ზოგავს. გულწრფელად რომ ვთქვათ, ეს მოგზაურობის წინ რუკის ყიდვას ჰგავს - არასრულყოფილი, მაგრამ გაცილებით უკეთესი, ვიდრე ვიბრაციები. [2]
ხელოვნური ინტელექტის მიკერძოების ტიპები, რომლებსაც რეალურად შეხვდებით ველურ ბუნებაში 🧭
მიკერძოება ხელოვნური ინტელექტის მთელი სასიცოცხლო ციკლის განმავლობაში ვლინდება. გუნდები შემდეგი ტიპის ჩვევებს აწყდებიან:
-
მონაცემთა შერჩევის მიკერძოება - ზოგიერთი ჯგუფი არასაკმარისად არის წარმოდგენილი ან არ არსებობს.
-
იარლიყების მიკერძოება - ისტორიული იარლიყები ცრურწმენებს ან ხმაურიან ადამიანურ განსჯას აკოდირებს.
-
გაზომვის მიკერძოება - პროქსი მაჩვენებლები, რომლებიც არ ასახავს იმას, რასაც თქვენ ნამდვილად აფასებთ.
-
შეფასების მიკერძოება - ტესტების ნაკრებები გამოტოვებენ გარკვეულ პოპულაციებს ან კონტექსტებს.
-
განლაგების მიკერძოება - კარგი ლაბორატორიული მოდელი, რომელიც გამოიყენება არასწორ გარემოში.
-
სისტემური და ადამიანური მიკერძოება - უფრო ფართო სოციალური ნიმუშები და გუნდური არჩევანი, რომელიც ტექნოლოგიებში ჟონავს.
სტანდარტიზაციის ორგანოების სასარგებლო მენტალური მოდელი აჯგუფებს მიკერძოებას ადამიანურ, ტექნიკურ და სისტემურ კატეგორიებად და რეკომენდაციას უწევს სოციალურ-ტექნიკურ მართვას და არა მხოლოდ მოდელის ცვლილებებს. [1]
სადაც მიკერძოება იპარება 🔍
-
პრობლემის ჩამოყალიბება - თუ სამიზნეს ძალიან ვიწროდ განსაზღვრავთ, გამორიცხავთ იმ ადამიანებს, რომლებსაც პროდუქტი უნდა ემსახურებოდეს.
-
მონაცემთა წყაროები - ისტორიული მონაცემები ხშირად ასახავს წარსულის უთანასწორობას.
-
ფუნქციების არჩევანი - მგრძნობიარე ატრიბუტების პროქსი სერვერებს შეუძლიათ მგრძნობიარე ატრიბუტების ხელახლა შექმნა.
-
ტრენინგი - მიზნები ოპტიმიზაციას უწევს საშუალო სიზუსტეს და არა სამართლიანობას.
-
ტესტირება - თუ თქვენი შეკავების ნაკრები დამახინჯებულია, თქვენი მეტრიკაც დამახინჯებულია.
-
მონიტორინგი - მომხმარებლების ან კონტექსტის ცვლილებებმა შეიძლება პრობლემები ხელახლა გამოიწვიოს.
რეგულატორები ხაზს უსვამენ სამართლიანობის რისკების დოკუმენტირებას მთელი სასიცოცხლო ციკლის განმავლობაში და არა მხოლოდ მოდელის მორგების დროს. ეს არის ყველას მიერ განსახორციელებელი სამუშაო. [2]
როგორ გავზომოთ სამართლიანობა წრეზე დგომის გარეშე? 📏
არ არსებობს ერთი მეტრიკა, რომელიც ყველა მათგანს გამორიცხავს. აირჩიეთ თქვენი გამოყენების შემთხვევისა და იმ ზიანის მიხედვით, რომლის თავიდან აცილებაც გსურთ.
-
დემოგრაფიული პარიტეტი - შერჩევის მაჩვენებლები ჯგუფებს შორის მსგავსი უნდა იყოს. კარგია განაწილების კითხვებისთვის, მაგრამ შეიძლება ეწინააღმდეგებოდეს სიზუსტის მიზნებს. [3]
-
გათანაბრებული შანსები - ცრუ დადებითი და ნამდვილი დადებითი შედეგების მსგავსი შეცდომების მაჩვენებლები მსგავსი უნდა იყოს. სასარგებლოა, როდესაც შეცდომების ღირებულება განსხვავდება ჯგუფების მიხედვით. [3]
-
კალიბრაცია - ერთი და იგივე ქულის შემთხვევაში, შედეგები თანაბრად სავარაუდო უნდა იყოს სხვადასხვა ჯგუფში. სასარგებლოა, როდესაც ქულები განსაზღვრავს ადამიანის გადაწყვეტილებებს. [3]
ხელსაწყოების ნაკრებები ამას პრაქტიკულად აადვილებს ხარვეზების, დიაგრამების და დაფების გამოთვლით, რათა შეწყვიტოთ ვარაუდები. [3]
მიკერძოების შემცირების პრაქტიკული, მაგრამ რეალურად ეფექტური გზები 🛠️
იფიქრეთ მრავალშრიან შემარბილებელ ღონისძიებებზე და არა ერთ წამახალისებელ იარაღზე:
-
მონაცემთა აუდიტი და გამდიდრება - დაფარვის ხარვეზების იდენტიფიცირება, კანონიერი შემთხვევების შემთხვევაში უფრო უსაფრთხო მონაცემების შეგროვება, დოკუმენტების შერჩევა.
-
ხელახალი წონა და ხელახალი შერჩევა - შეცვალეთ ტრენინგის განაწილება ასიმეტრიის შესამცირებლად.
-
დამუშავების პროცესში არსებული შეზღუდვები - მიზანს სამართლიანობის მიზნები ემატება, რათა მოდელმა პირდაპირ ისწავლოს კომპრომისები.
-
შეჯიბრებითი მიკერძოება - მოდელის გაწვრთნა ისე, რომ მგრძნობიარე ატრიბუტები არ იყოს პროგნოზირებადი შიდა წარმოდგენებიდან.
-
შემდგომი დამუშავება - გადაწყვეტილების ზღვრების დაკალიბრება თითოეული ჯგუფისთვის, სადაც ეს მიზანშეწონილი და კანონიერია.
-
ადამიანის მიერ ციკლში ჩართულობის შემოწმება - მოდელების დაწყვილება ახსნადი შეჯამებებითა და ესკალაციის გზებით.
ღია კოდის ბიბლიოთეკები, როგორიცაა AIF360 და Fairlearn, გვთავაზობენ როგორც მეტრიკას, ასევე შერბილების ალგორითმებს. ისინი ჯადოსნური არ არის, მაგრამ სისტემატურ საწყის წერტილს მოგცემთ. [5][3]
რეალური სამყაროს მტკიცებულება იმისა, რომ მიკერძოებას მნიშვნელობა აქვს 📸💳🏥
-
სახის ანალიზი - ფართოდ ციტირებულმა კვლევამ კომერციულ სისტემებში სქესისა და კანის ტიპის ჯგუფებს შორის სიზუსტის დიდი უთანასწორობა დაადასტურა, რაც შეფასების უკეთესი პრაქტიკისკენ უბიძგებს სფეროს. [4]
-
მაღალი რისკის შემცველი გადაწყვეტილებები (კრედიტი, დაქირავება, საცხოვრებელი) - განზრახვის გარეშეც კი, მიკერძოებული შედეგები შეიძლება ეწინააღმდეგებოდეს სამართლიანობას და დისკრიმინაციის საწინააღმდეგო ვალდებულებებს. თარგმანი: თქვენ ხართ პასუხისმგებელი შედეგებზე და არა მხოლოდ კოდზე. [2]
მოკლე ანეკდოტი პრაქტიკიდან: ანონიმური დაქირავების სკრინინგის აუდიტის დროს, გუნდმა აღმოაჩინა ტექნიკური პოზიციების მქონე ქალებში გაწვევის ხარვეზები. მარტივმა ნაბიჯებმა - უკეთესად სტრატიფიცირებულმა დაყოფამ, მახასიათებლების მიმოხილვამ და ჯგუფურად ზღვრულმა განსაზღვრამ - ხარვეზის უმეტესი ნაწილი შეამცირა მცირე სიზუსტის კომპრომისით. მთავარი არ იყო ერთი ხრიკი; ეს იყო განმეორებადი გაზომვა-შერბილება-მონიტორინგის ციკლი.
პოლიტიკა, კანონი და მმართველობა: როგორ გამოიყურება „კარგი“ 🧾
იურისტი არ უნდა იყოთ, მაგრამ სამართლიანობისა და ახსნა-განმარტების მიღწევისკენ უნდა ისწრაფოდეთ:
-
სამართლიანობის პრინციპები - ადამიანზე ორიენტირებული ღირებულებები, გამჭვირვალობა და დისკრიმინაციის აკრძალვა მთელი სასიცოცხლო ციკლის განმავლობაში. [1]
-
მონაცემთა დაცვა და თანასწორობა - პერსონალურ მონაცემებთან დაკავშირებით, მოემზადეთ სამართლიანობის, მიზნის შეზღუდვისა და ინდივიდუალური უფლებების შესახებ ვალდებულებების შესასრულებლად; შესაძლოა, სექტორული წესებიც გავრცელდეს. წინასწარ განსაზღვრეთ თქვენი ვალდებულებები. [2]
-
რისკების მართვა - გამოიყენეთ სტრუქტურირებული ჩარჩოები მიკერძოების იდენტიფიცირების, გაზომვისა და მონიტორინგისთვის, როგორც უფრო ფართო ხელოვნური ინტელექტის რისკების პროგრამების ნაწილი. ჩაიწერეთ. გადახედეთ. გაიმეორეთ. [1]
მცირედი შენიშვნა: დოკუმენტაცია მხოლოდ ბიუროკრატია არ არის; ეს არის ის, თუ როგორ ამტკიცებ რომ სამუშაო ნამდვილად შეასრულე, თუ ვინმე გკითხავს.
შედარების ცხრილი: ინსტრუმენტები და ჩარჩოები ხელოვნური ინტელექტის მიკერძოების მოსათვინიერებლად 🧰📊
| ინსტრუმენტი ან ჩარჩო | საუკეთესოა | ფასი | რატომ მუშაობს... ერთგვარად |
|---|---|---|---|
| AIF360 | მონაცემთა მეცნიერები, რომლებსაც სურთ მეტრიკა + შერბილება | უფასო | ერთ ადგილას თავმოყრილია უამრავი ალგორითმი; პროტოტიპის სწრაფად შექმნა; ეხმარება საბაზისო ეტაპების პოვნასა და შესწორებების შედარებაში. [5] |
| ფეარლეარნი | გუნდები, რომლებიც აბალანსებენ სიზუსტესა და სამართლიანობის შეზღუდვებს | უფასო | შეფასების/შემსუბუქების მკაფიო API-ები; სასარგებლო ვიზუალიზაცია; scikit-learn-თან თავსებადი. [3] |
| NIST AI (SP 1270) | რისკი, შესაბამისობა და ლიდერობა | უფასო | ადამიანური/ტექნიკური/სისტემური მიკერძოებისა და სასიცოცხლო ციკლის მართვის საერთო ენა. [1] |
| ICO-ს ხელმძღვანელობა | დიდი ბრიტანეთის გუნდები, რომლებიც პერსონალურ მონაცემებს ამუშავებენ, | უფასო | ხელოვნური ინტელექტის სასიცოცხლო ციკლის განმავლობაში სამართლიანობის/დისკრიმინაციის რისკების პრაქტიკული საკონტროლო სიები. [2] |
თითოეული ეს მეთოდი დაგეხმარებათ უპასუხოთ კითხვას, თუ რა არის ხელოვნური ინტელექტის მიკერძოება თქვენს კონტექსტში, სტრუქტურის, მეტრიკისა და საერთო ლექსიკის მოწოდებით.
მოკლე, ოდნავ კრიტიკული სამუშაო პროცესი 🧪
-
მიუთითეთ ზიანი, რომლის თავიდან აცილებაც გსურთ - განაწილების ზიანი, შეცდომების მაჩვენებლის უთანასწორობა, ღირსების შელახვა და ა.შ.
-
აირჩიეთ ამ ზიანთან თავსებადი მეტრიკა - მაგალითად, გათანაბრებული შანსები, თუ შეცდომის პარიტეტი მნიშვნელოვანია. [3]
-
გაუშვით საბაზისო ნიშნულები დღევანდელი მონაცემებითა და მოდელით. შეინახეთ სამართლიანობის ანგარიში.
-
პირველ რიგში, სცადეთ ნაკლებად პრობლემური შესწორებები - მონაცემთა უკეთესი დაყოფა, ზღურბლის დადგენა ან ხელახალი წონვა.
-
გადადით დამუშავების პროცესში არსებულ შეზღუდვებზე.
-
ხელახლა შეაფასეთ შეკავებული ნაკრებები, რომლებიც რეალურ მომხმარებლებს წარმოადგენენ.
-
მონიტორინგი წარმოებაში - დისტრიბუციის ცვლილებები ხდება; ასევე უნდა მოხდეს დაფების ცვლილებები.
-
დოკუმენტირებული კომპრომისები - სამართლიანობა კონტექსტუალურია, ამიტომ ახსენით, რატომ აირჩიეთ X პარიტეტი Y-ის ნაცვლად. [1][2]
მარეგულირებლები და სტანდარტიზაციის ორგანოები გარკვეული მიზეზის გამო ხაზს უსვამენ სასიცოცხლო ციკლის აზროვნებას. ეს მუშაობს. [1]
კომუნიკაციის რჩევები დაინტერესებული მხარეებისთვის 🗣️
-
მოერიდეთ მხოლოდ მათემატიკურ ახსნა-განმარტებებს - ჯერ მარტივი დიაგრამები და კონკრეტული მაგალითები აჩვენეთ.
-
გამოიყენეთ მარტივი ენა - ახსენით, რა შეიძლება მოიქცეს მოდელი უსამართლოდ და ვის შეიძლება ეს შეეხოს.
-
ზედაპირული კომპრომისები - სამართლიანობის შეზღუდვებმა შეიძლება შეცვალოს სიზუსტე; ეს შეცდომა არ არის, თუ ის ამცირებს ზიანს.
-
გაუთვალისწინებელი სიტუაციების დაგეგმვა - როგორ შევაჩეროთ ან უკან დავბრუნდეთ, თუ პრობლემები წარმოიქმნება.
-
გამოიწვიეთ შემოწმება - გარე მიმოხილვა ან წითელი გუნდური მუშაობა ავლენს ბრმა წერტილებს. ეს არავის მოსწონს, მაგრამ ეს ეხმარება. [1][2]
ხშირად დასმული კითხვები: რა არის სინამდვილეში ხელოვნური ინტელექტის მიკერძოება? ❓
განა მიკერძოება მხოლოდ ცუდი მონაცემები არ არის?
არა მხოლოდ ეს. მონაცემებს მნიშვნელობა აქვს, მაგრამ მოდელირების არჩევანი, შეფასების დიზაინი, განლაგების კონტექსტი და გუნდის წახალისება გავლენას ახდენს შედეგებზე. [1]
შემიძლია თუ არა მიკერძოების სრულად აღმოფხვრა?
როგორც წესი, არა. თქვენი მიზანია მართვა ისე, რომ მან უსამართლო შედეგები არ გამოიწვიოს - იფიქრეთ შემცირებასა და მმართველობაზე და არა სრულყოფილებაზე. [2]
რომელი სამართლიანობის მეტრიკა უნდა გამოვიყენო?
აირჩიეთ ზიანის ტიპისა და დომენის წესების მიხედვით. მაგალითად, თუ ცრუ დადებითი შედეგები ჯგუფს უფრო მეტ ზიანს აყენებს, ყურადღება გაამახვილეთ შეცდომის მაჩვენებლის პარიტეტზე (გათანაბრებული შანსები). [3]
მჭირდება თუ არა სამართლებრივი განხილვა?
თუ თქვენი სისტემა ეხება ადამიანების შესაძლებლობებს ან უფლებებს, კი. მომხმარებელზე და თანასწორობაზე ორიენტირებული წესები შეიძლება გამოყენებულ იქნას ალგორითმულ გადაწყვეტილებებზე და თქვენ უნდა წარმოადგინოთ თქვენი ნამუშევარი. [2]
დასკვნითი შენიშვნები: ძალიან გრძელია, არ წამიკითხავს 🧾✨
თუ ვინმე გკითხავთ, რა არის ხელოვნური ინტელექტის მიკერძოება , აი, მარტივი პასუხი: ეს არის ხელოვნური ინტელექტის შედეგების სისტემატური დამახინჯება, რომელსაც შეუძლია რეალურ სამყაროში არასამართლიანი შედეგების გამოწვევა. თქვენ მას დიაგნოსტირებთ კონტექსტისთვის შესაფერისი მეტრიკებით, შეამცირებთ მას მრავალშრიანი ტექნიკით და მართავთ მას მთელი სასიცოცხლო ციკლის განმავლობაში. ეს არ არის ერთი შეცდომა, რომლის აღმოფხვრაც შესაძლებელია - ეს არის პროდუქტის, პოლიტიკისა და ადამიანების კითხვა, რომელიც მოითხოვს გაზომვის, დოკუმენტაციისა და თავმდაბლობის მუდმივ დოლაბს. ვფიქრობ, არ არსებობს გამოსავალი... მაგრამ არსებობს ღირსეული საკონტროლო სიები, გულწრფელი კომპრომისები და უკეთესი ჩვევები. და დიახ, რამდენიმე ემოჯი არასდროს არის ურიგო. 🙂
ცნობები
-
NIST-ის სპეციალური პუბლიკაცია 1270 - ხელოვნურ ინტელექტში მიკერძოების იდენტიფიცირებისა და მართვის სტანდარტისკენ . ბმული
-
დიდი ბრიტანეთის ინფორმაციის კომისრის ოფისი - რაც შეეხება სამართლიანობას, მიკერძოებასა და დისკრიმინაციას? ბმული
-
Fairlearn-ის დოკუმენტაცია - სამართლიანობის საერთო მაჩვენებლები (დემოგრაფიული პარიტეტი, გათანაბრებული შანსები, კალიბრაცია). ბმული
-
ბუოლამვინი, ჯ. და გებრუ, თ. (2018). გენდერული ელფერები: კომერციული გენდერული კლასიფიკაციაში კვეთათაშორისი სიზუსტის უთანასწორობა . FAT* / PMLR. ბმული
-
IBM Research - ხელოვნური ინტელექტის სამართლიანობის 360-ის (AIF360) გაცნობა . ბმული