მოკლე პასუხი: ხელოვნური ინტელექტი ძალიან შორს წავიდა, როდესაც ის გამოიყენება მაღალი რისკის შემცველი გადაწყვეტილებების, თვალთვალის ან დარწმუნების დროს მკაცრი შეზღუდვების, ინფორმირებული თანხმობისა და გასაჩივრების რეალური უფლების გარეშე. ის კვლავ სცილდება ზღვარს, როდესაც ღრმა ყალბი ვერსიები და მასშტაბირებადი თაღლითობები ნდობას რისკად აქცევს. თუ ადამიანებს არ შეუძლიათ იმის გაგება, რომ ხელოვნურმა ინტელექტმა ითამაშა როლი, ვერ ხვდებიან, რატომ მიიღეს გადაწყვეტილება ასეთად ან ვერ ახერხებენ უარის თქმას, ეს უკვე ძალიან შორს წავიდა.
ძირითადი დასკვნები:
საზღვრები: განსაზღვრეთ, რისი გაკეთება არ შეუძლია სისტემას, განსაკუთრებით მაშინ, როდესაც გაურკვევლობა მაღალია.
ანგარიშვალდებულება: დარწმუნდით, რომ ადამიანებს შეუძლიათ შედეგების გადახედვა ჯარიმების ან დროის ზეწოლის გარეშე.
გამჭვირვალობა: უთხარით ხალხს, როდის არის ჩართული ხელოვნური ინტელექტი და რატომ მიიღო მან ეს გადაწყვეტილებები.
სადავოა: უზრუნველყოთ სწრაფი, ქმედითი სააპელაციო მარშრუტები და მკაფიო გზები არასწორი მონაცემების გამოსასწორებლად.
ბოროტად გამოყენების წინააღმდეგობა: დაამატეთ წარმომავლობა, ტარიფების შეზღუდვები და კონტროლი თაღლითობისა და ბოროტად გამოყენების შესამცირებლად.
„ნუთუ ხელოვნური ინტელექტი ძალიან შორს წავიდა?“
უცნაური ის არის, რომ ზღვარის გადაკვეთა ყოველთვის აშკარა არ არის. ზოგჯერ ეს ხმამაღალი და თვალშისაცემია, როგორც ღრმად მოტყუების თაღლითობა. ( FTC , FBI ). ზოგჯერ ეს ჩუმია - ავტომატიზირებული გადაწყვეტილება, რომელიც თქვენს ცხოვრებას უბიძგებს ყოველგვარი ახსნა-განმარტების გარეშე და თქვენ ვერც კი აცნობიერებთ, რომ „გაქურდეს“. ( UK ICO , GDPR მუხლი 22 ).
მაშ ასე... ხელოვნური ინტელექტი ხომ არ გადაჭარბებულა? ზოგიერთ ადგილას, დიახ. ზოგან კი, ის საკმარისად შორს არ წასულა - რადგან ის გამოიყენება არასექსუალური, მაგრამ აუცილებელი დამცავი ზოლების გარეშე, რომლებიც ხელსაწყოებს რულეტკის ბორბლების ნაცვლად ხელსაწყოებად აქცევს და მათ მეგობრული ინტერფეისი აქვს. 🎰🙂 ( NIST AI RMF 1.0 , EU AI Act )
სტატიები, რომელთა წაკითხვაც შეიძლება მოგეწონოთ ამის შემდეგ:
🔗 რატომ შეიძლება ხელოვნური ინტელექტი იყოს საზოგადოებისთვის მავნე
ძირითადი სოციალური რისკები: მიკერძოება, სამუშაო ადგილები, პირადი ცხოვრების ხელშეუხებლობა და ძალაუფლების კონცენტრაცია.
🔗 ხელოვნური ინტელექტი მავნებელია გარემოსთვის? ფარული ზეგავლენა
როგორ ზრდის ტრენინგი, მონაცემთა ცენტრები და ენერგიის გამოყენება ემისიებს.
🔗 ხელოვნური ინტელექტი კარგია თუ ცუდი? დადებითი და უარყოფითი მხარეები
სარგებლის, რისკებისა და რეალურ ცხოვრებაში არსებული კომპრომისების დაბალანსებული მიმოხილვა.
🔗 რატომ ითვლება ხელოვნური ინტელექტი ცუდად: მისი ბნელი მხარე
იკვლევს ბოროტად გამოყენებას, მანიპულირებას, უსაფრთხოების საფრთხეებს და ეთიკურ საკითხებს.
რას გულისხმობენ ადამიანები, როდესაც ამბობენ „ხელოვნურმა ინტელექტმა ხომ არ გადააჭარბა?“ 😬
ადამიანების უმეტესობა არ კითხულობს, ხელოვნური ინტელექტი „გონიერია“ თუ „ბატონობას იღებს“. ისინი ამ საკითხებზე მიუთითებენ:
-
ხელოვნური ინტელექტი გამოიყენება იქ, სადაც არ უნდა იქნას გამოყენებული. (განსაკუთრებით მაღალი რისკის შემცველი გადაწყვეტილებები.) ( ევროკავშირის ხელოვნური ინტელექტის შესახებ კანონის დანართი III , GDPR მუხლი 22 )
-
ხელოვნური ინტელექტი გამოიყენება თანხმობის გარეშე. (თქვენი მონაცემები, თქვენი ხმა, თქვენი სახე... სიურპრიზი.) ( დიდი ბრიტანეთის ICO , GDPR მუხლი 5 )
-
ხელოვნური ინტელექტი ყურადღების მანიპულირებაში ძალიან კარგად მუშაობს. (არხები + პერსონალიზაცია + ავტომატიზაცია = ფიქსირებული.) ( ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპები )
-
ხელოვნური ინტელექტი სიმართლეს არჩევით შეგრძნებას აძლევს. (დიფფეიქები, ყალბი მიმოხილვები, სინთეტიკური „ექსპერტები“) ( ევროკომისია , ფედერალური სავაჭრო კომისია , C2PA )
-
ხელოვნური ინტელექტი ძალაუფლების კონცენტრირებას ახდენს. (რამდენიმე სისტემა განსაზღვრავს იმას, თუ რას ხედავს და რისი გაკეთება შეუძლია ყველას.) ( დიდი ბრიტანეთის CMA )
„ნუთუ ხელოვნურმა ინტელექტმა ძალიან შორს წავიდა?“- ს არსი . ეს არ არის ერთი მომენტი. ეს არის სტიმულების, მალსახმობების და „მოგვიანებით გამოვასწორებთ“ აზროვნების გროვა - რაც, მოდით, გულახდილად ვთქვათ, ითარგმნება როგორც „მას შემდეგ გამოვასწორებთ, რაც ვინმე დაშავდება“ 😑

არც ისე საიდუმლო სიმართლე: ხელოვნური ინტელექტი გამრავლების საშუალებაა და არა მორალური აქტორი 🔧✨
ხელოვნური ინტელექტი არ იღვიძებს და არ გადაწყვეტს, რომ მავნე იყოს. ადამიანები და ორგანიზაციები მას ესხმიან თავს. თუმცა, ის ამრავლებს იმას, რასაც არ უნდა აჭმევდეთ:
-
სასარგებლო განზრახვა უაღრესად სასარგებლო (თარგმანი, ხელმისაწვდომობა, შეჯამება, სამედიცინო ნიმუშების აღმოჩენა).
-
დაუდევარი განზრახვა მასიურად დაუდევარი (მასშტაბის მიკერძოება, შეცდომების ავტომატიზაცია).
-
ცუდი განზრახვა უზომოდ ბოროტად (თაღლითობა, შევიწროება, პროპაგანდა, იმიტაცია).
ეს ჰგავს პატარასთვის მეგაფონის მიცემას. ზოგჯერ პატარა მღერის... ზოგჯერ პატარა პირდაპირ შენს სულში ყვირის. იდეალური მეტაფორა არ არის - ცოტა სულელურია - მაგრამ მთავარი აზრი გასაგებია 😅📢.
რა ხდის ხელოვნური ინტელექტის ვერსიას კარგს ყოველდღიურ გარემოში? ✅🤝
ხელოვნური ინტელექტის „კარგი ვერსია“ არ განისაზღვრება მისი ჭკვიანურობით. ის განისაზღვრება იმით, თუ რამდენად კარგად იქცევა ის ზეწოლის, გაურკვევლობისა და ცდუნების პირობებში (და ადამიანები ძალიან ცდუნებენ იაფფასიანი ავტომატიზაციისგან). ( NIST AI RMF 1.0 , OECD )
აი, რას ვეძებ, როდესაც ვინმე ამტკიცებს, რომ მათი ხელოვნური ინტელექტის გამოყენება პასუხისმგებლობით არის განპირობებული:
1) მკაფიო საზღვრები
-
რა უფლება აქვს სისტემას გააკეთოს?
-
რა არის კატეგორიულად აკრძალული ამის გაკეთება?
-
რა ხდება, როდესაც ის არ არის დარწმუნებული?
2) ადამიანური პასუხისმგებლობა, რომელიც რეალურია და არა დეკორატიული
ადამიანის მიერ „განხილვის“ შედეგები მხოლოდ მაშინ არის მნიშვნელოვანი, თუ:
-
ისინი ხვდებიან, რას აფასებენ და
-
მათ შეუძლიათ მისი უგულებელყოფა პროცესის შენელებისთვის დასჯის გარეშე.
3) ახსნა-განმარტება სწორ დონეზე
ყველას არ სჭირდება მათემატიკა. ხალხს ნამდვილად სჭირდება:
-
გადაწყვეტილების მიღების ძირითადი მიზეზები,
-
რა მონაცემები იქნა გამოყენებული,
-
როგორ გავასაჩივროთ, შევასწოროთ ან უარი ვთქვათ. ( UK ICO )
4) გაზომვადი შესრულება - მათ შორის უკმარისობის რეჟიმები
არა მხოლოდ „სიზუსტე“, არამედ:
-
ვისზეც ეს წარუმატებელია,
-
რამდენად ხშირად ჩუმად ვერ ხერხდება,
-
რა ხდება, როდესაც სამყარო იცვლება. ( NIST AI RMF 1.0 )
5) კონფიდენციალურობა და თანხმობა, რომლებიც „დამალული არ არის პარამეტრებში“
თუ თანხმობა მენიუს მეშვეობით საგანძურის ძიებას მოითხოვს... ეს თანხმობა არ არის. ეს დამატებითი ნაბიჯებით გამოწვეული ხვრელია 😐🧾. ( GDPR მუხლი 5 , დიდი ბრიტანეთის ICO )
შედარების ცხრილი: პრაქტიკული გზები, რათა ხელოვნურმა ინტელექტმა არ გადააჭარბოს 🧰📊
ქვემოთ მოცემულია „საუკეთესო ვარიანტები“ იმ გაგებით, რომ ისინი წარმოადგენენ ჩვეულებრივ დამცავ ბარიერებს ან ოპერატიულ ინსტრუმენტებს, რომლებიც ცვლიან შედეგებს (და არა მხოლოდ ვიბრაციებს).
| ინსტრუმენტი / ვარიანტი | აუდიტორია | ფასი | რატომ მუშაობს |
|---|---|---|---|
| ადამიანის ციკლის მიმოხილვა ( ევროკავშირის ხელოვნური ინტელექტის შესახებ აქტი ) | გუნდები, რომლებიც მაღალი ფსონების მქონე გადაწყვეტილებებს იღებენ | ££ (დროის ღირებულება) | ანელებს არასწორ ავტომატიზაციას. ასევე, ადამიანებს შეუძლიათ შეამჩნიონ უცნაური კიდეები, ზოგჯერ.. |
| გადაწყვეტილების გასაჩივრების პროცესი ( GDPR მუხლი 22 ) | ხელოვნური ინტელექტის მიერ გაწეული გადაწყვეტილებები გავლენას ახდენენ მომხმარებლებზე | თავისუფალი | დასძენს სათანადო პროცესს. ადამიანებს შეუძლიათ არასწორი მონაცემების გასწორება - ელემენტარულად ჟღერს, რადგან ეს ელემენტარულია |
| აუდიტის ჟურნალები + მიკვლევადობა ( NIST SP 800-53 ) | შესაბამისობა, ოპერაციები, უსაფრთხოება | £-££ | საშუალებას გაძლევთ უპასუხოთ კითხვას „რა მოხდა?“ წარუმატებლობის შემდეგ, მხრების აჩეჩვის ნაცვლად |
| მოდელის შეფასება + მიკერძოების ტესტირება ( NIST AI RMF 1.0 ) | პროდუქტის + რისკის გუნდები | ძალიან განსხვავდება | პროგნოზირებად ზიანს ადრეულ ეტაპზევე იჭერს. იდეალური არ არის, მაგრამ ვარაუდზე უკეთესია |
| წითელი გუნდის ტესტირება ( NIST GenAI პროფილი ) | უსაფრთხოება + უსაფრთხოების მოყვარულებო | £££ | ბოროტად გამოყენების სიმულირება რეალური თავდამსხმელების წინაშე ხდება. უსიამოვნოა, მაგრამ ღირს 😬 |
| მონაცემთა მინიმიზაცია ( დიდი ბრიტანეთის ICO ) | ყველას, გულწრფელად | £ | ნაკლები მონაცემები = ნაკლები არეულობა. ასევე ნაკლები დარღვევები, ნაკლები უხერხული საუბრები |
| კონტენტის წარმომავლობის სიგნალები ( C2PA ) | პლატფორმები, მედია, მომხმარებლები | £-££ | ეხმარება იმის დადასტურებაში, თუ „ადამიანმა შექმნა ეს?“ - არ არის უტყუარი, მაგრამ ამცირებს ქაოსს |
| სიჩქარის ლიმიტები + წვდომის კონტროლი ( OWASP ) | ხელოვნური ინტელექტის პროვაიდერები + საწარმოები | £ | მყისიერად აჩერებს ძალადობის მასშტაბირებას. როგორც ბოროტმოქმედებისთვის სიჩქარის დაბრკოლება |
კი, მაგიდა ცოტა არათანაბარია. ასეთია ცხოვრება. 🙂
ხელოვნური ინტელექტი მაღალი ფსონების მქონე გადაწყვეტილებებში: როდესაც ის ძალიან შორს მიდის 🏥🏦⚖️
სწორედ აქ ხდება საქმეები სწრაფად სერიოზული.
ხელოვნური ინტელექტი ჯანდაცვაში , ფინანსებში , საცხოვრებელში , დასაქმებაში , განათლებაში , იმიგრაციაში , სისხლის სამართლის მართლმსაჯულებაში - ეს არის სისტემები, სადაც: ( ევროკავშირის ხელოვნური ინტელექტის შესახებ აქტის დანართი III , FDA )
-
შეცდომამ შეიძლება ვინმეს ფული, თავისუფლება, ღირსება ან უსაფრთხოება დაუჯდეს,
-
და დაზარალებულს ხშირად შეზღუდული ძალა აქვს წინააღმდეგობის გასაწევად.
დიდი რისკი არ არის „ხელოვნური ინტელექტი შეცდომებს უშვებს“. დიდი რისკი არის ის, რომ ხელოვნური ინტელექტის შეცდომები პოლიტიკად იქცევა . ( NIST AI RMF 1.0 )
როგორ გამოიყურება აქ „ძალიან შორს“
-
ავტომატიზირებული გადაწყვეტილებები ახსნა-განმარტების გარეშე: „კომპიუტერი ამბობს უარს“. ( დიდი ბრიტანეთის ICO )
-
„რისკის ქულები“ ფაქტებად აღიქმებოდა და არა ვარაუდებად.
-
ადამიანები, რომლებსაც არ შეუძლიათ შედეგების უგულებელყოფა, რადგან მენეჯმენტს სიჩქარე სურს.
-
მონაცემები, რომლებიც არის მოუწესრიგებელი, მიკერძოებული, მოძველებული ან უბრალოდ აბსოლუტურად არასწორი.
რა არ უნდა იყოს შეთანხმების ღირსი
-
გასაჩივრების უფლება (სწრაფი, გასაგები, არა ლაბირინთული). ( GDPR მუხლი 22 , დიდი ბრიტანეთის ICO )
-
უფლება მქონდა ვიცოდე , რომ ხელოვნური ინტელექტი იყო ჩართული. ( ევროკომისია )
-
ადამიანის მიერ განხორციელებული შეფასება შედეგების დასადგენად. ( NIST AI RMF 1.0 )
-
მონაცემების ხარისხის კონტროლი - რადგან ნაგვის შეტანა, ნაგვის გატანა კვლავ მტკივნეულად სიმართლეა.
თუ ცდილობთ, სუფთა ზღვარი გავუსვათ, აი, ერთი:
თუ ხელოვნური ინტელექტის სისტემას შეუძლია მნიშვნელოვნად შეცვალოს ადამიანის ცხოვრება, მას იგივე სერიოზულობა სჭირდება, რასაც სხვა სახის ხელისუფლებისგან ველით. არანაირი „ბეტა ტესტირება“ იმ ადამიანებზე, ვინც არ დარეგისტრირდა. 🚫
დიფფეიკები, თაღლითობები და „მე ჩემს თვალებს ვენდობი“-ს ნელი სიკვდილი 👀🧨
ეს არის ის ნაწილი, რაც ყოველდღიურ ცხოვრებას... მოლიპულ შეგრძნებას სძენს.
როდესაც ხელოვნურ ინტელექტს შეუძლია გენერირება:
-
ხმოვანი შეტყობინება, რომელიც თქვენი ოჯახის წევრის ხმას ჰგავს ( FTC , FBI )
-
ვიდეო, სადაც საჯარო პირი რაღაცას „ამბობს“,
-
ყალბი მიმოხილვების ნაკადი, რომლებიც საკმარისად ავთენტურად გამოიყურება ( FTC )
-
ყალბი LinkedIn პროფილი ყალბი სამუშაო ისტორიით და ყალბი მეგობრებით..
...ეს არა მხოლოდ თაღლითობის საშუალებას იძლევა. ის ასუსტებს სოციალურ წებოს, რომელიც უცნობებს კოორდინაციის საშუალებას აძლევს. საზოგადოება კი უცნობების კოორდინაციაზეა დამოკიდებული. 😵💫
„ძალიან შორს“ მხოლოდ ყალბი კონტენტი არ არის
ეს ასიმეტრიაა :
-
ტყუილის გენერირება იაფია.
-
სიმართლის დადასტურება ძვირი და ნელია.
-
და ადამიანების უმეტესობა დაკავებულია, დაღლილი და სქროლავს.
რა გვეხმარება (ცოტათი)
-
მედიის წარმომავლობის მარკერები. ( C2PA )
-
ვირუსულობისთვის ხახუნი - მასობრივი გაზიარების მყისიერი შენელება.
-
პირადობის უკეთ დადასტურება, სადაც ეს მნიშვნელოვანია (ფინანსები, სამთავრობო მომსახურება).
-
ფიზიკური პირებისთვის „კავშირგარეშე გადამოწმების“ ძირითადი ჩვევები (უკუკავშირი, კოდური სიტყვის გამოყენება, სხვა არხის საშუალებით დადასტურება). ( FTC )
გლამურული არ არის. თუმცა, არც უსაფრთხოების ღვედებია და პირადად მე საკმაოდ მიჯაჭვული ვარ მათზე. 🚗
თვალთვალის ხრიკი: როდესაც ხელოვნური ინტელექტი ყველაფერს სენსორად ჩუმად გარდაქმნის 📷🫥
ეს დიფფეიკივით არ ფეთქდება. ის უბრალოდ ვრცელდება.
ხელოვნური ინტელექტი აადვილებს:
-
მოძრაობის ნიმუშების თვალყურის დევნება,
-
ვიდეოდან ემოციების გამოტანა (ხშირად ცუდად, მაგრამ თავდაჯერებულად), ( ბარეტი და სხვ., 2019 , ევროკავშირის ხელოვნური ინტელექტის შესახებ აქტი )
-
იწინასწარმეტყველეთ „რისკი“ ქცევის ან თქვენი სამეზობლოს ატმოსფეროს მიხედვით.
და მაშინაც კი, როდესაც ის არაზუსტია, მას მაინც შეუძლია ზიანი მიაყენოს, რადგან მას შეუძლია ჩარევის გამართლება. არასწორმა პროგნოზმა მაინც შეიძლება გამოიწვიოს რეალური შედეგები.
არასასიამოვნო ნაწილი
ხელოვნური ინტელექტით მართული მეთვალყურეობა ხშირად უსაფრთხოების ისტორიაში ჩნდება:
-
„ეს თაღლითობის პრევენციისთვისაა.“
-
„ეს უსაფრთხოებისთვისაა.“
-
„ეს მომხმარებლის გამოცდილებისთვისაა.“
ზოგჯერ ეს მართალია. ზოგჯერ ეს ასევე მოსახერხებელი საბაბია ისეთი სისტემების შესაქმნელად, რომელთა დემონტაჟი მოგვიანებით ძალიან რთულია. მაგალითად, საკუთარ სახლში ცალმხრივი კარის დამონტაჟება, რადგან იმ დროს ეს ეფექტურად მოგეჩვენებოდათ. ისევ და ისევ, ეს არ არის იდეალური მეტაფორა - ერთგვარი სასაცილოა - მაგრამ გრძნობთ ამას. 🚪😅
როგორ გამოიყურება აქ „კარგი“
-
შენახვისა და გაზიარების მკაცრი შეზღუდვები.
-
გაწმინდეთ უარის თქმის ვარიანტები.
-
ვიწრო გამოყენების შემთხვევები.
-
დამოუკიდებელი ზედამხედველობა.
-
დასჯის ან კონტროლის მიზნით „ემოციების ამოცნობა“ არ გამოიყენება. გთხოვთ. 🙃 ( ევროკავშირის ხელოვნური ინტელექტის შესახებ კანონი )
შრომა, კრეატიულობა და ჩუმი კვალიფიკაციის დაქვეითების პრობლემა 🧑💻🎨
სწორედ აქ ხდება დებატები პირად საკითხებში, რადგან ის იდენტობას ეხება.
ხელოვნურ ინტელექტს შეუძლია ადამიანები უფრო პროდუქტიულები გახადოს. მას ასევე შეუძლია ადამიანებს შეუქმნას ჩანაცვლების შეგრძნება. ორივე შეიძლება სიმართლე იყოს, ერთდროულად, ერთ კვირაში. ( OECD , WEF )
სადაც ის ნამდვილად სასარგებლოა
-
რუტინული ტექსტის შედგენა ისე, რომ ადამიანებმა შეძლონ აზროვნებაზე ფოკუსირება.
-
კოდირების დახმარება განმეორებითი ნიმუშებისთვის.
-
ხელმისაწვდომობის ინსტრუმენტები (სუბტიტრები, შეჯამება, თარგმანი).
-
გაიჭედეთ, როცა გონებას ფანტავთ.
სად მიდის საქმე ძალიან შორს
-
როლების ჩანაცვლება გარდამავალი გეგმების გარეშე.
-
ხელოვნური ინტელექტის გამოყენება წარმოების შესამცირებლად ხელფასების გასწორების პარალელურად.
-
შემოქმედებითი ნამუშევრის უსასრულო უფასო სასწავლო მონაცემებად აღქმა და შემდეგ მხრების იგნორირება. ( აშშ-ის საავტორო უფლებების ოფისი , დიდი ბრიტანეთი GOV.UK )
-
უმცროსი თანამდებობების გაქრობა - რაც ეფექტურად ჟღერს მანამ, სანამ არ გააცნობიერებ, რომ ახლახან დაასრულე კიბე, რომელზეც მომავალი ექსპერტები უნდა ავიდნენ.
კადრების დამუშავება დახვეწილია. ყოველდღე ვერ ამჩნევ. შემდეგ კი ერთ დღეს ხვდები, რომ გუნდში არავის ახსოვს, როგორ მუშაობს ეს ასისტენტის გარეშე. და თუ ასისტენტი ცდება, თქვენც ერთად ცდებით... რაც ერთგვარი კოშმარია. 😬
სიმძლავრის კონცენტრაცია: ვის შეუძლია ნაგულისხმევი პარამეტრების დაყენება? 🏢⚡
მაშინაც კი, თუ ხელოვნური ინტელექტი „ნეიტრალურია“ (ეს ასე არ არის), ვინც მას აკონტროლებს, შეუძლია ჩამოაყალიბოს:
-
რა ინფორმაციაზეა წვდომა მარტივი,
-
რასაც დააწინაურებენ ან იმალებიან,
-
რომელი ენაა დაშვებული,
-
რა ქცევებია წახალისებული.
და რადგან ხელოვნური ინტელექტის სისტემების აწყობა და ექსპლუატაცია შეიძლება ძვირი დაჯდეს, ძალაუფლება, როგორც წესი, კონცენტრირდება. ეს შეთქმულება არ არის. ეს ეკონომიკაა ტექნოლოგიური კაპიშონიანით. ( დიდი ბრიტანეთის CMA )
„ძალიან შორს“ მომენტი აქ
როდესაც ნაგულისხმევი კანონები უხილავი ხდება:
-
არ იცი, რა იფილტრება,
-
ლოგიკას ვერ შეამოწმებ,
-
და რეალურად შეუძლებელია უარი თქვათ ამ პროგრამაზე სამუშაოზე, საზოგადოებაზე ან ძირითად მომსახურებაზე წვდომის დაკარგვის გარეშე.
ჯანსაღი ეკოსისტემა მოითხოვს კონკურენციას, გამჭვირვალობას და მომხმარებლის რეალურ არჩევანს. წინააღმდეგ შემთხვევაში, თქვენ ფაქტობრივად რეალობას ქირაობთ. 😵♂️
პრაქტიკული საკონტროლო სია: როგორ გაიგოთ, ხელოვნური ინტელექტი ხომ არ ზედმეტად შორს მიდის თქვენს სამყაროში 🧾🔍
აქ მოცემულია შინაგანი ორგანოების შემოწმების სია, რომელსაც მე ვიყენებ (და დიახ, ის არასრულყოფილია):
თუ თქვენ ხართ ფიზიკური პირი
-
შემიძლია განვსაზღვრო, როდის ვურთიერთობ ხელოვნურ ინტელექტთან. ( ევროკომისია )
-
ეს სისტემა მაიძულებს, ზედმეტად გავაზიარო.
-
თუ შედეგს დამაჯერებლად მცდარი შევხედავ, კარგი იქნება.
-
თუ ამის გამოყენებით მომატყუებდნენ, პლატფორმა დამეხმარებოდა... ან მხრებს იჩეჩავდა.
თუ თქვენ ბიზნესი ან გუნდი ხართ
-
ჩვენ ვიყენებთ ხელოვნურ ინტელექტს, რადგან ის ღირებულია, ან იმიტომ, რომ ის მოდურია და მენეჯმენტი მოუსვენარია.
-
ჩვენ ვიცით, რა მონაცემებს ეხება სისტემა.
-
დაზარალებულ მომხმარებელს შეუძლია შედეგების გასაჩივრება. ( UK ICO )
-
ადამიანებს აქვთ მოდელის გადაფარვის უფლებამოსილება.
-
ჩვენ გვაქვს ინციდენტებზე რეაგირების გეგმები ხელოვნური ინტელექტის ჩავარდნებზე.
-
ჩვენ ვაკვირდებით გადახრას, არასწორად გამოყენებას და უჩვეულო კიდურ შემთხვევებს.
თუ ამ კითხვებიდან ბევრზე „არა“ უპასუხეთ, ეს არ ნიშნავს, რომ ბოროტი ხართ. ეს ნიშნავს, რომ ნორმალურ ადამიანურ მდგომარეობაში ხართ, სადაც „ჩვენ ეს გავაგზავნეთ და ვიმედოვნეთ“. სამწუხაროდ, იმედი სტრატეგია არ არის. 😅
დასკვნითი შენიშვნები 🧠✅
მაშ ასე... ხომ არ გადაჭარბდა ხელოვნური ინტელექტი?
ის გადაჭარბდა იმაში, რომ უპასუხისმგებლოდ გამოიყენება , განსაკუთრებით მაღალი რისკის შემცველი გადაწყვეტილებების, მასობრივი დარწმუნებისა და თვალთვალის საკითხებში. ის ასევე გადაჭარბდა იმაში, რომ ნდობას ძირს უთხრის - რადგან როგორც კი ნდობა ირღვევა, ყველაფერი უფრო ძვირი და სოციალურად მტრულად განწყობილი ხდება. ( NIST AI RMF 1.0 , EU AI Act )
თუმცა, ხელოვნური ინტელექტი თავისი არსით განწირული ან თავისი არსით სრულყოფილი არ არის. ის ძლიერი მულტიპლიკატორია. კითხვა ისმის, შევქმნით თუ არა დამცავ ბარიერებს ისეთივე აგრესიულად, როგორც შესაძლებლობებს.
მოკლე მიმოხილვა:
-
ხელოვნური ინტელექტი, როგორც ინსტრუმენტი, კარგია.
-
ის სახიფათოა, როგორც ანგარიშვალდებულების გარეშე მყოფი ავტორიტეტი.
-
თუ ვინმეს არ შეუძლია გასაჩივრება, გაგება ან უარის თქმა - სწორედ აქედან იწყება „ძალიან შორს წასვლა“. 🚦 ( GDPR მუხლი 22 , დიდი ბრიტანეთის ICO )
ხშირად დასმული კითხვები
ხომ არ წავიდა ხელოვნური ინტელექტი ყოველდღიურ ცხოვრებაში ძალიან შორს?
ბევრგან ხელოვნური ინტელექტი ძალიან შორს წავიდა, რადგან ის გადაწყვეტილებებსა და ურთიერთქმედებებში მკაფიო საზღვრებისა და ანგარიშვალდებულების გარეშე ჩაეშვა. პრობლემა იშვიათად არის „ხელოვნური ინტელექტის არსებობა“; ეს არის ხელოვნური ინტელექტი, რომელიც ჩუმად არის ჩათრეული დაქირავებაში, ჯანდაცვაში, მომხმარებელთა მომსახურებასა და კვების პროდუქტებში მცირე ზედამხედველობის გარეშე. როდესაც ადამიანებს არ შეუძლიათ განასხვავონ ეს ხელოვნური ინტელექტი, არ შეუძლიათ შედეგების გასაჩივრება ან არ შეუძლიათ უარი თქვან, ის წყვეტს ინსტრუმენტად აღქმას და იწყებს სისტემად აღქმას.
როგორ გამოიყურება „ხელოვნური ინტელექტის მიერ ზედმეტად შორს წასვლა“ მაღალი ფსონების მქონე გადაწყვეტილებებში?
როგორც ჩანს, ხელოვნური ინტელექტი გამოიყენება ჯანდაცვაში, ფინანსებში, საცხოვრებელში, დასაქმებაში, განათლებაში, იმიგრაციასა თუ სისხლის სამართლის სფეროში ძლიერი დამცავი ბარიერების გარეშე. მთავარი პრობლემა ის კი არ არის, რომ მოდელები შეცდომებს უშვებენ, არამედ ის, რომ ეს შეცდომები პოლიტიკად იქცევა და მათი გამოწვევა ძნელი ხდება. ზიანი სწრაფად იზრდება „კომპიუტერის უარის“ გადაწყვეტილებებზე, რომლებსაც აქვთ სუსტი ახსნა-განმარტებები და არ აქვთ მნიშვნელოვანი სააპელაციო საჩივრები.
როგორ გავიგო, გავლენას ახდენს თუ არა ავტომატიზირებული გადაწყვეტილება ჩემზე და რა ვქნა?
გავრცელებული ნიშანია უეცარი შედეგი, რომლის ახსნაც შეუძლებელია: უარყოფა, შეზღუდვა ან „რისკის ქულის“ შეგრძნება ნათელი მიზეზის გარეშე. ბევრმა სისტემამ უნდა გაამჟღავნოს, როდის ითამაშა ხელოვნურმა ინტელექტმა მნიშვნელოვანი როლი და თქვენ უნდა შეძლოთ მოითხოვოთ გადაწყვეტილების ძირითადი მიზეზები და მისი გასაჩივრების ნაბიჯები. პრაქტიკაში, მოითხოვეთ ადამიანის მიერ განხილვა, შეასწორეთ ნებისმიერი არასწორი მონაცემი და დააჭირეთ მარტივი უარის თქმის გზას.
ხელოვნურმა ინტელექტმა კონფიდენციალურობის, თანხმობისა და მონაცემთა გამოყენების კუთხით ზედმეტად შორს წავიდა?
ეს ხშირად ხდება მაშინ, როდესაც თანხმობა საგანძურის ძიებად იქცევა და მონაცემთა შეგროვება „ყოველი შემთხვევისთვის“ ფართოვდება. სტატიის მთავარი აზრი ის არის, რომ კონფიდენციალურობას და თანხმობას დიდი წონა არ აქვს, თუ ისინი გარემოებებშია დამალული ან ბუნდოვანი ტერმინებით არის იძულებული. უფრო ჯანსაღი მიდგომაა მონაცემთა მინიმიზაცია: ნაკლები შეაგროვეთ, ნაკლები შეინახეთ და არჩევანი უტყუარი გახადეთ, რათა მოგვიანებით ხალხი არ გაოცდეს.
როგორ ცვლის ღრმა ფეიქები და ხელოვნური ინტელექტის თაღლითობები ონლაინ რეჟიმში „ნდობის“ მნიშვნელობას?
ისინი სიმართლეს არასავალდებულოდ აქცევენ დამაჯერებელი ყალბი ხმების, ვიდეოების, მიმოხილვებისა და ვინაობის შექმნის ღირებულების შემცირებით. პრობლემა ასიმეტრიაშია: ტყუილის გენერირება იაფია, ხოლო სიმართლის დადასტურება ნელი და დამღლელია. პრაქტიკული დაცვის საშუალებები მოიცავს მედიისთვის წარმომავლობის სიგნალებს, ვირუსული გაზიარების შენელებას, პირადობის უფრო ძლიერ შემოწმებას, სადაც ეს მნიშვნელოვანია და „ჯგუფს გარეთ გადამოწმების“ ჩვევებს, როგორიცაა უკან დარეკვა ან საერთო კოდური სიტყვის გამოყენება.
რა არის ყველაზე პრაქტიკული დამცავი ბარიერები, რათა ხელოვნურმა ინტელექტმა ზედმეტად შორს წასვლა არ შეძლოს?
შედეგების შემცვლელი დამცავი ბარიერები მოიცავს მაღალი რისკის შემცველი ზარების რეალურ, ადამიანურ მიმოხილვას, მკაფიო სააპელაციო პროცესებს და აუდიტის ჟურნალებს, რომლებსაც შეუძლიათ პასუხის გაცემა კითხვაზე „რა მოხდა?“ წარუმატებლობის შემდეგ. მოდელის შეფასებას და მიკერძოების ტესტირებას შეუძლია პროგნოზირებადი ზიანის ადრეულ ეტაპზე აღმოჩენა, ხოლო წითელი გუნდის ტესტირება ახდენს ბოროტად გამოყენების სიმულირებას თავდამსხმელებამდე. სიჩქარის ლიმიტები და წვდომის კონტროლი ხელს უწყობს ბოროტად გამოყენების მყისიერად თავიდან აცილებას, ხოლო მონაცემთა მინიმიზაცია ამცირებს რისკს ყველა ასპექტში.
როდის სცდება ხელოვნური ინტელექტით მართული მეთვალყურეობა ზღვარს?
ზღვარს მაშინ სცილდება, როდესაც ყველაფერი სტანდარტულად სენსორად იქცევა: სახის ამოცნობა ბრბოში, მოძრაობის ნიმუშების თვალყურის დევნება ან სანდო „ემოციების ამოცნობა“, რომელიც გამოიყენება დასჯის ან კონტროლისთვის. არაზუსტ სისტემებსაც კი შეუძლიათ სერიოზული ზიანის მიყენება, თუ ისინი ამართლებენ ჩარევებს ან მომსახურების უარყოფას. კარგი პრაქტიკა გამოიხატება გამოყენების ვიწრო შემთხვევებში, შენახვის მკაცრ ლიმიტებში, მნიშვნელოვან უარის თქმაში, დამოუკიდებელ ზედამხედველობაში და მტკიცე „არა“-ში ემოციებზე დაფუძნებულ მერყევ განსჯაზე.
ხელოვნური ინტელექტი ადამიანებს უფრო პროდუქტიულს ხდის - თუ ჩუმად ამცირებს სამუშაოს კვალიფიკაციას?
ორივე შეიძლება ერთდროულად მართალი იყოს და სწორედ ეს დაძაბულობაა მთავარი. ხელოვნურ ინტელექტს შეუძლია დაეხმაროს რუტინულ წერაში, კოდირების განმეორებად ნიმუშებსა და ხელმისაწვდომობაში, რაც ადამიანებს საშუალებას აძლევს, უფრო მაღალი დონის აზროვნებაზე გაამახვილონ ყურადღება. ეს ძალიან შორს მიდის, როდესაც ის ცვლის როლებს გარდამავალი გეგმების გარეშე, ამცირებს ხელფასებს, შემოქმედებით სამუშაოს უფასო ტრენინგის მონაცემებად აღიქვამს ან ამცირებს უმცროსი თანამდებობის პირების როლებს, რომლებიც მომავალ ექსპერტიზას ქმნიან. კვალიფიკაციის დაქვეითება დახვეწილად რჩება მანამ, სანამ გუნდები ასისტენტის გარეშე ფუნქციონირებას ვერ შეძლებენ.
ცნობები
-
სტანდარტებისა და ტექნოლოგიების ეროვნული ინსტიტუტი (NIST) - ხელოვნური ინტელექტის რისკების მართვის ჩარჩო (AI RMF 1.0) - nist.gov
-
ევროკავშირი - ევროკავშირის ხელოვნური ინტელექტის შესახებ აქტი (რეგულაცია (EU) 2024/1689) - ოფიციალური ჟურნალი (ინგლისური) - europa.eu
-
ევროკომისია - ხელოვნური ინტელექტის მარეგულირებელი ჩარჩო (ევროკავშირის ხელოვნური ინტელექტის შესახებ აქტის პოლიტიკის გვერდი) - europa.eu
-
ევროკავშირის ხელოვნური ინტელექტის შესახებ აქტის მომსახურების ცენტრი - დანართი III (მაღალი რისკის მქონე ხელოვნური ინტელექტის სისტემები) - europa.eu
-
ევროკავშირი - სანდო ხელოვნური ინტელექტის წესები ევროკავშირში (ევროკავშირის ხელოვნური ინტელექტის შესახებ აქტის შეჯამება) - europa.eu
-
დიდი ბრიტანეთის ინფორმაციის კომისრის ოფისი (ICO) - რა არის ავტომატიზირებული ინდივიდუალური გადაწყვეტილების მიღება და პროფილირება? - ico.org.uk
-
დიდი ბრიტანეთის ინფორმაციის კომისრის ოფისი (ICO) - რას ამბობს დიდი ბრიტანეთის GDPR ავტომატიზირებული გადაწყვეტილების მიღებისა და პროფილირების შესახებ? - ico.org.uk
-
დიდი ბრიტანეთის ინფორმაციის კომისრის ოფისი (ICO) - ავტომატიზირებული გადაწყვეტილების მიღება და პროფილირება (სახელმძღვანელო ცენტრი) - ico.org.uk
-
დიდი ბრიტანეთის ინფორმაციის კომისრის ოფისი (ICO) - მონაცემთა მინიმიზაცია (დიდი ბრიტანეთის GDPR პრინციპების სახელმძღვანელო) - ico.org.uk
-
GDPR-info.eu - GDPR-ის 22-ე მუხლი - gdpr-info.eu
-
GDPR-info.eu - GDPR-ის მე-5 მუხლი - gdpr-info.eu
-
აშშ-ის ფედერალური სავაჭრო კომისია (FTC) - თაღლითები ხელოვნურ ინტელექტს იყენებენ ოჯახური საგანგებო სქემების გასაუმჯობესებლად - ftc.gov
-
აშშ-ის ფედერალური სავაჭრო კომისია (FTC) - თაღლითები ყალბ საგანგებო სიტუაციებს იყენებენ თქვენი ფულის მოსაპარად - ftc.gov
-
აშშ-ის ფედერალური სავაჭრო კომისია (FTC) - საბოლოო წესი, რომელიც კრძალავს ყალბ მიმოხილვებსა და ჩვენებებს (პრესრელიზი) - ftc.gov
-
ფედერალური გამოძიების ბიურო (FBI) - FBI აფრთხილებს კიბერდანაშაულების მიერ ხელოვნური ინტელექტის გამოყენების მზარდი საფრთხის შესახებ - fbi.gov
-
ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაცია (OECD) - OECD-ის ხელოვნური ინტელექტის პრინციპები - oecd.ai
-
ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაცია - საბჭოს რეკომენდაცია ხელოვნური ინტელექტის შესახებ (OECD/LEGAL/0449) - oecd.org
-
ევროკომისია - გამჭვირვალე ხელოვნური ინტელექტის სისტემების სახელმძღვანელო პრინციპები და პრაქტიკის კოდექსი (ხშირად დასმული კითხვები) - europa.eu
-
კონტენტის წარმომავლობისა და ავთენტურობის კოალიცია (C2PA) - სპეციფიკაციები v2.3 - c2pa.org
-
დიდი ბრიტანეთის კონკურენციისა და ბაზრების ორგანო (CMA) - ხელოვნური ინტელექტის საფუძვლების მოდელები: საწყისი ანგარიში - gov.uk
-
აშშ-ის სურსათისა და წამლის ადმინისტრაცია (FDA) - ხელოვნური ინტელექტით აღჭურვილი სამედიცინო მოწყობილობები - fda.gov
-
NIST - ინფორმაციული სისტემებისა და ორგანიზაციების უსაფრთხოებისა და კონფიდენციალურობის კონტროლი (SP 800-53 Rev. 5) - nist.gov
-
NIST - გენერაციული ხელოვნური ინტელექტის პროფილი (NIST.AI.600-1, ipd) - nist.gov
-
ღია მსოფლიო აპლიკაციების უსაფრთხოების პროექტი (OWASP) - შეუზღუდავი რესურსების მოხმარება (API Security Top 10, 2023) - owasp.org
-
NIST - სახის ამოცნობის მომწოდებლის ტესტის (FRVT) დემოგრაფია - nist.gov
-
ბარეტი და სხვ. (2019) - სტატია (PMC) - nih.gov
-
ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაცია - ხელოვნური ინტელექტის გამოყენება სამუშაო ადგილზე (PDF) - oecd.org
-
მსოფლიო ეკონომიკური ფორუმი (WEF) - სამუშაო ადგილების მომავლის ანგარიში 2025 - დაიჯესტი - weforum.org
-
აშშ-ის საავტორო უფლებების ოფისი - საავტორო უფლებები და ხელოვნური ინტელექტი, ნაწილი 3: გენერაციული ხელოვნური ინტელექტის ტრენინგის ანგარიში (გამოქვეყნებამდელი ვერსია) (PDF) - copyright.gov
-
დიდი ბრიტანეთის მთავრობა (GOV.UK) - საავტორო უფლებები და ხელოვნური ინტელექტი (კონსულტაცია) - gov.uk