მოკლე პასუხი: გენერაციული ხელოვნური ინტელექტის გამოყენებით დეველოპერები პასუხისმგებელნი არიან მთელ სისტემაზე და არა მხოლოდ მოდელის გამომავალზე. როდესაც ხელოვნური ინტელექტი გავლენას ახდენს გადაწყვეტილებებზე, კოდზე, კონფიდენციალურობაზე ან მომხმარებლის ნდობაზე, მათ უნდა აირჩიონ უსაფრთხო აპლიკაციები, გადაამოწმონ შედეგები, დაიცვან მონაცემები, შეამცირონ ზიანი და უზრუნველყონ, რომ ადამიანებმა შეძლონ შეცდომების გადახედვა, გადაფარვა და გამოსწორება.
ძირითადი დასკვნები:
ვერიფიკაცია : დამუშავებული შედეგები არასანდოდ ჩათვალეთ მანამ, სანამ წყაროები, ტესტები ან ადამიანის მიერ დადასტურებული არ იქნება.
მონაცემთა დაცვა : მინიმუმამდე დაიყვანეთ მოთხოვნილი მონაცემები, წაშალეთ იდენტიფიკატორები და დაიცავით ჟურნალები, წვდომის კონტროლი და მომწოდებლები.
სამართლიანობა : ტესტირება დემოგრაფიულ ჯგუფებსა და კონტექსტებში სტერეოტიპებისა და არათანაბარი წარუმატებლობის ნიმუშების დასადგენად.
გამჭვირვალობა : ნათლად მონიშნეთ ხელოვნური ინტელექტის გამოყენება, ახსენით მისი შეზღუდვები და შესთავაზეთ ადამიანური მიმოხილვა ან გასაჩივრება.
ანგარიშვალდებულება : გაშვებამდე დანიშნეთ მკაფიო მფლობელები განლაგების, ინციდენტების, მონიტორინგისა და გაუქმებისთვის.

სტატიები, რომელთა წაკითხვაც შეიძლება მოგეწონოთ ამის შემდეგ:
🔗 პროგრამული უზრუნველყოფის შემქმნელებისთვის საუკეთესო ხელოვნური ინტელექტის ინსტრუმენტები: საუკეთესო ხელოვნური ინტელექტით აღჭურვილი კოდირების ასისტენტები
შეადარეთ საუკეთესო ხელოვნური ინტელექტის კოდირების ასისტენტები უფრო სწრაფი და სუფთა განვითარების სამუშაო პროცესებისთვის.
🔗 დეველოპერებისთვის პროდუქტიულობის გაზრდის 10 საუკეთესო ხელოვნური ინტელექტის ინსტრუმენტი
უფრო ჭკვიანი კოდირებისა და სიჩქარისთვის დეველოპერის ხელოვნური ინტელექტის ინსტრუმენტების რეიტინგული სია.
🔗 რატომ შეიძლება ხელოვნურმა ინტელექტმა ცუდი გავლენა მოახდინოს საზოგადოებასა და ნდობაზე
განმარტავს რეალურ სამყაროში არსებულ ზიანს: მიკერძოებას, კონფიდენციალურობას, სამუშაო ადგილებს და დეზინფორმაციის რისკებს.
🔗 ხომ არ გადააჭარბა ხელოვნურმა ინტელექტმა მაღალი ფსონების მქონე გადაწყვეტილებებს?
განსაზღვრავს, როდის კვეთს ხელოვნური ინტელექტი საზღვრებს: თვალთვალი, ღრმა ფეიქები, დარწმუნება, თანხმობის არარსებობა.
რატომ არის გენერაციული ხელოვნური ინტელექტის გამოყენებით დეველოპერების პასუხისმგებლობა უფრო მნიშვნელოვანი, ვიდრე ხალხს ჰგონია
პროგრამული უზრუნველყოფის ბევრი შეცდომა გამაღიზიანებელია. ღილაკი ტყდება. გვერდი ნელა იტვირთება. რაღაც ითიშება და ყველა კვნესის.
გენერაციული ხელოვნური ინტელექტის პრობლემები შეიძლება განსხვავებული იყოს. ისინი შეიძლება დახვეწილი იყოს.
მოდელს შეუძლია თავდაჯერებულად ჟღერდეს, თუმცა ცდება. NIST GenAI პროფილი მას შეუძლია მიკერძოების რეპროდუცირება აშკარა გამაფრთხილებელი ნიშნების გარეშე. NIST GenAI პროფილი მას შეუძლია მგრძნობიარე მონაცემების გამოაშკარავება, თუ ის უყურადღებოდ გამოიყენება. OWASP-ის ტოპ 10 LLM აპლიკაციებისთვის ICO-ს რვა კითხვა გენერაციული ხელოვნური ინტელექტის შესახებ მას შეუძლია შექმნას კოდი, რომელიც მუშაობს - მანამ, სანამ ის წარმოებაში რაიმე ძალიან უხერხული გზით ვერ ჩავარდება. OWASP-ის ტოპ 10 LLM აპლიკაციებისთვის დაახლოებით იგივეა, რაც ძალიან ენთუზიაზმით აღსავსე სტაჟიორის დაქირავება, რომელიც არასდროს სძინავს და დროდადრო განსაცვიფრებელი თავდაჯერებულობით იგონებს ფაქტებს.
სწორედ ამიტომ, გენერაციული ხელოვნური ინტელექტის გამოყენებით დეველოპერების პასუხისმგებლობა უფრო დიდია, ვიდრე უბრალოდ იმპლემენტაცია. დეველოპერები აღარ ქმნიან მხოლოდ ლოგიკურ სისტემებს. ისინი ქმნიან ალბათურ სისტემებს ბუნდოვანი კიდეებით, არაპროგნოზირებადი გამომავალი მონაცემებით და რეალური სოციალური შედეგებით. NIST AI RMF
ეს ნიშნავს, რომ პასუხისმგებლობა მოიცავს:
-
NIST AI RMF მოდელის შეზღუდვების გაგება
-
მომხმარებლის კონფიდენციალურობის დაცვა, ICO-ს სახელმძღვანელო ხელოვნური ინტელექტისა და მონაცემთა დაცვის შესახებ
-
NIST GenAI პროფილის მავნე გამომავალი შედეგების შემცირება
-
ნდობის მინიჭებამდე სიზუსტის შემოწმება NIST GenAI პროფილი
-
ადამიანის როლის გარკვევა ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპების მიხედვით
-
ხელოვნური ინტელექტის წარუმატებლობის შემთხვევაში სარეზერვო გზების შემუშავება ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპები NCSC უსაფრთხო ხელოვნური ინტელექტის სახელმძღვანელო პრინციპები
-
სისტემის დოკუმენტირება ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპების
იცით, როგორ ხდება ეს - როდესაც ინსტრუმენტი ჯადოსნურად ჟღერს, ხალხი წყვეტს მის ეჭვქვეშ დაყენებას. დეველოპერებს არ შეუძლიათ ასეთი მოდუნებულები იყვნენ.
რა ხდის გენერაციული ხელოვნური ინტელექტის გამოყენებით დეველოპერების პასუხისმგებლობის კარგ ვერსიას? 🛠️
პასუხისმგებლობის კარგი ვერსია არ არის შესრულებითი. ეს არ არის მხოლოდ პასუხისმგებლობის შეზღუდვის დამატება ბოლოში და მისთვის ეთიკის დარქმევა. ის ვლინდება დიზაინის არჩევანში, ტესტირების ჩვევებსა და პროდუქტის ქცევაში.
აი, როგორ გამოიყურება გენერაციული ხელოვნური ინტელექტის გამოყენებით დეველოპერების პასუხისმგებლობის
-
NIST AI RMF-ის განზრახ გამოყენება
-
ხელოვნური ინტელექტი რეალური პრობლემის მოსაგვარებლად გამოიყენება და არა პროდუქტში იმიტომ არის ჩადებული, რომ მოდურად ჟღერს.
-
-
ადამიანური ზედამხედველობა ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპები
-
ადამიანებს შეუძლიათ გადახედონ, შეასწორონ, გადაფარონ ან უარყონ გამომავალი მონაცემები.
-
-
დიზაინით უსაფრთხოება NCSC-ის უსაფრთხო ხელოვნური ინტელექტის სახელმძღვანელო პრინციპები
-
რისკების კონტროლი ადრეულ ეტაპზეა ჩადებული და არა მოგვიანებით წებოვანი ლენტით.
-
-
გამჭვირვალობა ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპები ევროპის კომისიის ხელოვნური ინტელექტის აქტის მიმოხილვა
-
მომხმარებლები ხვდებიან, როდის არის კონტენტი ხელოვნური ინტელექტის მიერ გენერირებული თუ ხელოვნური ინტელექტის დახმარებით შექმნილი.
-
-
მონაცემთა მოვლის ICO-ს რვა კითხვა გენერაციული ხელოვნური ინტელექტის შესახებ
-
მგრძნობიარე ინფორმაცია ფრთხილად დამუშავდება და წვდომა შეზღუდულია.
-
-
სამართლიანობის შემოწმება NIST GenAI პროფილი ICO-ს ხელმძღვანელობა ხელოვნური ინტელექტისა და მონაცემთა დაცვის შესახებ
-
სისტემა შემოწმებულია მიკერძოებულობაზე, არათანაბარ მუშაობაზე და მავნე შაბლონებზე.
-
-
მიმდინარე მონიტორინგი NIST AI RMF NCSC უსაფრთხო AI სახელმძღვანელო პრინციპები
-
გაშვება ფინიშის ხაზი არ არის. ის უფრო სასტარტო სასტვენს ჰგავს.
-
თუ ეს ძალიან ბევრს ჟღერს, მაშინ... ასეა. თუმცა, საქმე იმაშია, რომ ტექნოლოგიასთან მუშაობ, რომელსაც შეუძლია მასშტაბურად გავლენა მოახდინოს გადაწყვეტილებებზე, შეხედულებებსა და ქცევაზე. ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპები
შედარების ცხრილი - გენერაციული ხელოვნური ინტელექტის გამოყენებით დეველოპერების ძირითადი პასუხისმგებლობა ერთი შეხედვით 📋
| პასუხისმგებლობის სფერო | ვისზე მოქმედებს ეს | დეველოპერის ყოველდღიური პრაქტიკა | რატომ არის ეს მნიშვნელოვანი |
|---|---|---|---|
| სიზუსტე და ვერიფიკაცია | მომხმარებლები, გუნდები, მომხმარებლები | გადახედეთ შედეგებს, დაამატეთ ვალიდაციის ფენები, გამოსცადეთ კიდეები | ხელოვნური ინტელექტი შეიძლება იყოს გამართული და მაინც ძალიან არასწორი - რაც უხეში კომბინაციაა. NIST GenAI პროფილი |
| კონფიდენციალურობის დაცვა | მომხმარებლები, კლიენტები, შიდა პერსონალი | მგრძნობიარე მონაცემების გამოყენების მინიმიზაცია, სქრაიპ-შეტყობინებების გაშიფვრა, ჟურნალების კონტროლი | როგორც კი პირადი მონაცემები გაჟონავს, კბილის პასტა ტუბიდან ამოიწურება 😬 ICO-ს რვა კითხვა გენერაციული ხელოვნური ინტელექტის შესახებ OWASP ტოპ 10 LLM აპლიკაციებისთვის |
| მიკერძოება და სამართლიანობა | ნაკლებად წარმოდგენილ ჯგუფებს, ყველა მომხმარებელს რეალურად | შედეგების აუდიტი, მრავალფეროვანი შეყვანის ტესტირება, დამცავი ზომების მორგება | ზიანი ყოველთვის ხმამაღალი არ არის - ზოგჯერ ის სისტემატური და ჩუმია. NIST GenAI პროფილის ICO-ს ხელმძღვანელობა ხელოვნური ინტელექტისა და მონაცემთა დაცვის შესახებ. |
| უსაფრთხოება | კომპანიის სისტემები, მომხმარებლები | მოდელზე წვდომის შეზღუდვა, სწრაფი ინექციისგან დაცვა, sandbox-ის სარისკო ქმედებები | ერთ ჭკვიანურ ექსპლოიტს შეუძლია სწრაფად გაანადგუროს ნდობა OWASP-ის ტოპ 10 LLM აპლიკაციებისთვის NCSC ხელოვნური ინტელექტისა და კიბერუსაფრთხოების შესახებ |
| გამჭვირვალობა | საბოლოო მომხმარებლები, მარეგულირებლები, დამხმარე გუნდები | ნათლად მონიშნეთ ხელოვნური ინტელექტის ქცევა, ახსენით შეზღუდვები, დოკუმენტირეთ გამოყენება | ხალხმა უნდა იცოდეს, როდის ეხმარება მანქანა OECD-ის ხელოვნური ინტელექტის პრინციპების პრაქტიკის კოდექსი ხელოვნური ინტელექტის მიერ გენერირებული კონტენტის მარკირებისა და ეტიკეტირების შესახებ. |
| ანგარიშვალდებულება | პროდუქტის მფლობელები, იურიდიული, დეველოპერული გუნდები | განსაზღვრეთ საკუთრება, ინციდენტების მართვა, ესკალაციის გზები | „ეს ხელოვნურმა ინტელექტმა გააკეთა“ ზრდასრულთა პასუხი არ არის - ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპები |
| საიმედოობა | ყველა, ვინც პროდუქტს ეხება | წარუმატებლობის მონიტორინგი, სანდოობის ზღვრების დაყენება, სარეზერვო ლოგიკის შექმნა | მოდელები იცვლებიან, მოულოდნელი გზებით ვერ ხერხდებიან და დროდადრო დრამატულ პატარა ეპიზოდებს ატარებენ. NIST AI RMF NCSC უსაფრთხო AI სახელმძღვანელო პრინციპები |
| მომხმარებლის კეთილდღეობა | განსაკუთრებით დაუცველი მომხმარებლები | მოერიდეთ მანიპულაციურ დიზაინს, შეზღუდეთ მავნე შედეგები, გადახედეთ მაღალი რისკის მქონე გამოყენების შემთხვევებს | ის, რომ რაღაცის გენერირება შესაძლებელია, არ ნიშნავს, რომ ის უნდა შეესაბამებოდეს ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის (OECD) ხელოვნური ინტელექტის პრინციპებს, NIST AI RMF-ს. |
ოდნავ არათანაბარი მაგიდაა, რა თქმა უნდა, მაგრამ თემას შეესაბამება. რეალური პასუხისმგებლობაც არათანაბარია.
პასუხისმგებლობა პირველ მოთხოვნამდე იწყება - სწორი გამოყენების შემთხვევის არჩევა 🎯
დეველოპერების ერთ-ერთი უდიდესი პასუხისმგებლობაა გადაწყვიტონ, საერთოდ უნდა იქნას თუ არა გამოყენებული გენერაციული ხელოვნური ინტელექტი . NIST AI RMF
ეს აშკარად ჟღერს, მაგრამ მუდმივად გამოტოვებულია. გუნდები ხედავენ მოდელს, აღფრთოვანდებიან და იწყებენ მის ისეთ სამუშაო პროცესებში ჩართვას, რომელთა დამუშავებაც უკეთესად იქნებოდა შესაძლებელი წესებით, ძიებით ან ჩვეულებრივი პროგრამული ლოგიკით. ყველა პრობლემას არ სჭირდება ენობრივი მოდელი. ზოგიერთ პრობლემას მონაცემთა ბაზა და მშვიდი შუადღე სჭირდება.
მშენებლობის დაწყებამდე დეველოპერებმა უნდა იკითხონ:
-
დავალება ღიაა თუ დეტერმინისტული?
-
შეიძლება თუ არა არასწორმა გამომავალმა ინფორმაციამ ზიანი მიაყენოს?
-
მომხმარებლებს სჭირდებათ კრეატიულობა, პროგნოზირება, შეჯამება, ავტომატიზაცია - თუ უბრალოდ სიჩქარე?
-
ზედმეტად ენდობა თუ არა ხალხი შედეგს? NIST GenAI პროფილი
-
შეუძლია თუ არა ადამიანს რეალისტურად გადახედოს შედეგებს? ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპები
-
რა ხდება, როდესაც მოდელი არასწორია? ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპები
პასუხისმგებლიანი დეველოპერი უბრალოდ არ კითხულობს: „შეგვიძლია ამის აშენება?“ ისინი კითხულობენ: „ეს ასე უნდა აშენდეს?“ NIST AI RMF
ეს კითხვა თავისთავად ბევრ უაზრო სისულელეს აგარიდებთ თავიდან.
სიზუსტე პასუხისმგებლობაა და არა დამატებითი ფუნქცია ✅
მოდით, ნათლად ვთქვათ - გენერაციული ხელოვნური ინტელექტის ერთ-ერთი უდიდესი ხაფანგი მჭევრმეტყველების სიმართლეში აღრევაა. მოდელები ხშირად იძლევიან პასუხებს, რომლებიც დახვეწილად, სტრუქტურირებულად და ღრმად დამაჯერებლად ჟღერს. რაც მშვენიერია, სანამ შინაარსი არ გახდება სისულელე, რომელიც კონფიდენციალურობით არის გახვეული. NIST GenAI პროფილი
ამგვარად, გენერაციული ხელოვნური ინტელექტის გამოყენებით დეველოპერების პასუხისმგებლობა მოიცავს ვერიფიკაციისთვის შექმნას.
ეს ნიშნავს:
-
შესაძლებლობის შემთხვევაში, აღდგენის ან დამიწების გამოყენება NIST GenAI პროფილი
-
გენერირებული კონტენტის დადასტურებული ფაქტებისგან გამოყოფა ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპები
-
სანდოობის ზღურბლების ფრთხილად დამატება NIST AI RMF-ში
-
მაღალი რისკის შემცველი შედეგების განხილვის სამუშაო პროცესების შექმნა ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპები
-
მოდელის იმპროვიზაციის თავიდან აცილება კრიტიკულ კონტექსტებში NIST GenAI პროფილი
-
ტესტირების მოთხოვნები, რომლებიც ცდილობენ სისტემის გატეხვას ან შეცდომაში შეყვანას. OWASP-ის ტოპ 10 LLM აპლიკაციებისთვის.
ეს ძალიან მნიშვნელოვანია ისეთ სფეროებში, როგორიცაა:
-
ჯანდაცვა
-
ფინანსები
-
იურიდიული სამუშაო პროცესები
-
განათლება
-
მომხმარებელთა მხარდაჭერა
-
საწარმოს ავტომატიზაცია
-
კოდის გენერირება
მაგალითად, გენერირებული კოდი შეიძლება მოწესრიგებულად გამოიყურებოდეს და ამავდროულად, უსაფრთხოების ხარვეზებს ან ლოგიკურ შეცდომებს მალავდეს. დეველოპერი, რომელიც მას ბრმად კოპირებს, არ არის ეფექტური - ისინი უბრალოდ რისკებს უფრო ლამაზ ფორმატში აუთსორსინგს უკეთებენ. OWASP-ის ტოპ 10 LLM აპლიკაციებისთვის NCSC ხელოვნური ინტელექტისა და კიბერუსაფრთხოების შესახებ
მოდელს შეუძლია დახმარება. შედეგი კვლავ დეველოპერს ეკუთვნის. ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპები
კონფიდენციალურობა და მონაცემთა მართვა უდავოა 🔐
სწორედ აქ ხდება საქმე სწრაფად სერიოზული. გენერაციული ხელოვნური ინტელექტის სისტემები ხშირად ეყრდნობიან მოთხოვნებს, ჟურნალებს, კონტექსტურ ფანჯრებს, მეხსიერების ფენებს, ანალიტიკას და მესამე მხარის ინფრასტრუქტურას. ეს ქმნის უამრავ შანსს, რომ მგრძნობიარე მონაცემები გაჟონოს, შენარჩუნდეს ან ხელახლა იქნას გამოყენებული ისე, როგორც მომხმარებლები არასდროს ელოდნენ. ICO-ს რვა კითხვა გენერაციული ხელოვნური ინტელექტის შესახებ OWASP ტოპ 10 LLM აპლიკაციებისთვის
დეველოპერებს აკისრიათ პასუხისმგებლობა დაიცვან:
-
პირადი ინფორმაცია
-
ფინანსური ჩანაწერები
-
სამედიცინო დეტალები
-
კომპანიის შიდა მონაცემები
-
სავაჭრო საიდუმლოებები
-
ავტორიზაციის ტოკენები
-
კლიენტებთან კომუნიკაცია
პასუხისმგებლიანი პრაქტიკები მოიცავს:
-
მოდელის ICO-ს რვა კითხვა გენერაციული ხელოვნური ინტელექტის შესახებ -
-
NIST GenAI პროფილის იდენტიფიკატორების შენიღბვა ან მოხსნა
-
ჟურნალის შენახვის შეზღუდვა ICO-ს ხელმძღვანელობა ხელოვნური ინტელექტისა და მონაცემთა დაცვის შესახებ
-
კონტროლი, თუ ვის შეუძლია წვდომა მოთხოვნებსა და გამომავალ მონაცემებზე. OWASP-ის ტოპ 10 LLM აპლიკაციებისთვის
-
მომწოდებლის პარამეტრების ყურადღებით განხილვა NCSC-ის უსაფრთხო ხელოვნური ინტელექტის სახელმძღვანელო პრინციპები
-
მაღალი რისკის მქონე სამუშაო პროცესების იზოლირება NCSC-ის უსაფრთხო ხელოვნური ინტელექტის სახელმძღვანელო პრინციპები
-
კონფიდენციალურობის ქცევის მომხმარებლებისთვის ხილვადობის უზრუნველყოფა ICO-ს რვა კითხვა გენერაციული ხელოვნური ინტელექტის შესახებ
ეს ერთ-ერთი იმ სფეროთაგანია, სადაც ფრაზა „დაგვავიწყდა ამაზე ფიქრი“ არც ისე მცირე შეცდომაა. ეს ნდობის დამრღვევი მარცხია.
და ნდობა, ერთხელ რომ გაიბზარება, ჩამოვარდნილი მინავით ვრცელდება. შესაძლოა, ეს ყველაზე დახვეწილი მეტაფორა არ არის, მაგრამ მიხვდებით.
მიკერძოება, სამართლიანობა და წარმომადგენლობა - უფრო მშვიდი პასუხისმგებლობები ⚖️
გენერაციულ ხელოვნურ ინტელექტში მიკერძოება იშვიათად არის მულტფილმის ბოროტმოქმედი. ის, როგორც წესი, უფრო მოქნილია, ვიდრე ეს. მოდელმა შეიძლება წარმოქმნას სტერეოტიპული სამუშაო აღწერილობები, არათანაბარი მოდერაციის გადაწყვეტილებები, ცალმხრივი რეკომენდაციები ან კულტურულად ვიწრო ვარაუდები აშკარა განგაშის გარეშე. NIST GenAI პროფილი
სწორედ ამიტომ, გენერაციული ხელოვნური ინტელექტის გამოყენებით დეველოპერების პასუხისმგებლობა მოიცავს აქტიურ სამართლიანობაზე მუშაობას.
დეველოპერებმა უნდა:
-
ტესტის მოთხოვნები სხვადასხვა დემოგრაფიული ჯგუფიდან და კონტექსტიდან NIST GenAI პროფილი
-
სტერეოტიპებისა და გამორიცხვის შედეგების მიმოხილვა NIST GenAI პროფილი
-
შეფასებისას მრავალფეროვანი პერსპექტივების ჩართვა NIST AI RMF
-
დააკვირდით არათანაბარ წარუმატებლობის ნიმუშებს NIST GenAI პროფილი
-
მოერიდეთ იმ ვარაუდს, რომ ერთი ენობრივი სტილი ან კულტურული ნორმა ყველას შეესაბამება. ICO-ს ხელმძღვანელობა ხელოვნური ინტელექტისა და მონაცემთა დაცვის შესახებ.
-
მავნე გამომავალი ინფორმაციისთვის ანგარიშგების არხების შექმნა NIST AI RMF
სისტემა შეიძლება საერთო ჯამში კარგად მუშაობდეს, თუმცა ზოგიერთ მომხმარებელს მუდმივად სხვებზე უარესად მოემსახუროს. ეს მიუღებელია მხოლოდ იმიტომ, რომ საშუალო შესრულება კარგად გამოიყურება დაფაზე. ICO-ს ხელმძღვანელობა ხელოვნური ინტელექტისა და მონაცემთა დაცვის შესახებ NIST GenAI პროფილი
და დიახ, სამართლიანობა უფრო რთულია, ვიდრე მოწესრიგებული საკონტროლო სია. მასში არის განსჯა. კონტექსტი. კომპრომისები. ასევე დისკომფორტის გარკვეული დონე. თუმცა ეს პასუხისმგებლობას არ აშორებს - პირიქით, ადასტურებს. ICO-ს რეკომენდაციები ხელოვნური ინტელექტისა და მონაცემთა დაცვის შესახებ
უსაფრთხოება ახლა ნაწილობრივ სწრაფი დიზაინია, ნაწილობრივ კი საინჟინრო დისციპლინა 🧱
გენერაციული ხელოვნური ინტელექტის უსაფრთხოება თავისებური „მონაცემთა ჯგუფს“ წარმოადგენს. ტრადიციული აპლიკაციების უსაფრთხოება, რა თქმა უნდა, კვლავ მნიშვნელოვანია, თუმცა ხელოვნური ინტელექტის სისტემები უჩვეულო შეტევის ზედაპირებს ამატებენ: სწრაფი ინექცია, არაპირდაპირი სწრაფი მანიპულირება, ხელსაწყოების სახიფათო გამოყენება, მონაცემთა ექსტრაქცია კონტექსტიდან და მოდელის ბოროტად გამოყენება ავტომატიზირებული სამუშაო პროცესების მეშვეობით. OWASP-ის ტოპ 10 LLM აპლიკაციებისთვის NCSC ხელოვნურ ინტელექტსა და კიბერუსაფრთხოებაზე.
დეველოპერები პასუხისმგებელნი არიან მთელი სისტემის უსაფრთხოებაზე და არა მხოლოდ ინტერფეისის. NCSC-ის უსაფრთხო ხელოვნური ინტელექტის სახელმძღვანელო პრინციპები
აქ ძირითადი პასუხისმგებლობები მოიცავს:
-
არასანდო შეყვანის დეზინფექცია OWASP-ის ტოპ 10 LLM აპლიკაციებისთვის
-
შეზღუდვა იმ ინსტრუმენტების, რომელთა მოდელს შეუძლია OWASP-ის LLM აპლიკაციებისთვის ტოპ 10-ში
-
ფაილებსა და ქსელზე წვდომის შეზღუდვა NCSC-ის უსაფრთხო ხელოვნური ინტელექტის სახელმძღვანელო პრინციპები
-
ნებართვების მკაფიოდ გამიჯვნა NCSC-ის უსაფრთხო ხელოვნური ინტელექტის სახელმძღვანელო პრინციპები
-
NCSC-ის უსაფრთხო ხელოვნური ინტელექტის სახელმძღვანელო პრინციპები, ბოროტად გამოყენების ნიმუშების მონიტორინგი
-
ფასის შემზღუდავი ძვირადღირებული ან სარისკო ქმედებები OWASP-ის ტოპ 10 LLM აპლიკაციებისთვის
-
OWASP-ის LLM აპლიკაციების ტოპ 10-ის ტესტირება შეჯიბრებითი მოთხოვნებით
-
უსაფრთხო სარეზერვო სისტემების შექმნა, როდესაც ინსტრუქციები ეწინააღმდეგება ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპებს
ერთი არასასიამოვნო სიმართლე ისაა, რომ მომხმარებლები - და თავდამსხმელები - აუცილებლად შეეცდებიან ისეთ რამეებს, რასაც დეველოპერები არ ელოდნენ. ზოგი ცნობისმოყვარეობის გამო, ზოგი ბოროტების გამო, ზოგი კი იმიტომ, რომ დილის 2 საათზე არასწორ რამეზე დააწკაპუნეს. ეს ხდება ხოლმე.
გენერაციული ხელოვნური ინტელექტის უსაფრთხოება ნაკლებად ჰგავს კედლის აშენებას და უფრო მეტად ძალიან ენამჭრელი „კარიბჭის“ მართვას ჰგავს, რომელიც ზოგჯერ ფრაზებით ტყუვდება.
გამჭვირვალობა და მომხმარებლის თანხმობა უფრო მნიშვნელოვანია, ვიდრე თვალშისაცემი მომხმარებლის გამოცდილება 🗣️
როდესაც მომხმარებლები ხელოვნურ ინტელექტთან ურთიერთობენ, მათ ეს უნდა იცოდნენ. ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპები ხელოვნური ინტელექტის მიერ გენერირებული კონტენტის მარკირებისა და ეტიკეტირების პრაქტიკის კოდექსი
ბუნდოვნად არა. ტერმინებში არ არის ჩაფლული. ცხადია.
გენერაციული ხელოვნური ინტელექტის გამოყენებით დეველოპერების პასუხისმგებლობის ძირითადი ნაწილია იმის უზრუნველყოფა, რომ მომხმარებლებმა გაიგონ:
-
როდესაც ხელოვნური ინტელექტი გამოიყენება ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის (OECD) ხელოვნური ინტელექტის პრინციპები
-
რა შეუძლია და რა არ შეუძლია ხელოვნურ ინტელექტს OECD-ის ხელოვნური ინტელექტის პრინციპები
-
განიხილავენ თუ არა შედეგებს ადამიანები ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპები
-
როგორ მუშავდება მათი მონაცემები? ICO-ს რვა კითხვა გენერაციული ხელოვნური ინტელექტის შესახებ
-
რა დონის ნდობა უნდა ჰქონდეთ NIST AI RMF-ის მიმართ?
-
როგორ შევატყობინოთ პრობლემების შესახებ ან გავასაჩივროთ გადაწყვეტილებები ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპები NIST AI RMF
გამჭვირვალობა მომხმარებლების დაშინებას არ ნიშნავს. ეს მათ პატივისცემას გულისხმობს.
კარგი გამჭვირვალობა შეიძლება მოიცავდეს:
-
ისეთი ეტიკეტები, როგორიცაა ხელოვნური ინტელექტის მიერ გენერირებული ან ხელოვნური ინტელექტის დახმარებით შექმნილი პრაქტიკის კოდექსი ხელოვნური ინტელექტის მიერ გენერირებული კონტენტის მარკირებისა და ეტიკეტირების შესახებ
-
მარტივი ენის ახსნა-განმარტებები ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპები
-
ხილული რედაქტირების ისტორია, სადაც ეს შესაბამისია
-
ხელოვნური ინტელექტის ფუნქციების გამორთვის ვარიანტები
-
საჭიროების შემთხვევაში, ადამიანზე ესკალაცია ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპები
-
მაღალი რისკის მქონე ამოცანებისთვის მოკლე გაფრთხილებები - ევროპის კომისიის ხელოვნური ინტელექტის აქტის მიმოხილვა
ბევრი პროდუქტის გუნდი წუხს, რომ გულწრფელობა ფუნქციას ნაკლებად ჯადოსნურს გახდის. შესაძლოა. თუმცა, ცრუ დარწმუნებულობა უარესია. გლუვი ინტერფეისი, რომელიც რისკს მალავს, ძირითადად გაპრიალებული დაბნეულობაა.
დეველოპერები რჩებიან პასუხისმგებელნი - მაშინაც კი, როდესაც მოდელი „გადაწყვეტს“ 👀
ეს ნაწილი ძალიან მნიშვნელოვანია. პასუხისმგებლობა არ შეიძლება გადაეცეს მოდელის გამყიდველს, მოდელის ბარათს, შეკვეთის შაბლონს ან მანქანური სწავლების იდუმალ ატმოსფეროს. ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპები , NIST, AI, RMF
დეველოპერები კვლავ ანგარიშვალდებულნი არიან. ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპები
ეს ნიშნავს, რომ გუნდის რომელიმე წევრს უნდა ჰქონდეს:
-
მოდელის შერჩევა NIST AI RMF
-
ტესტირების სტანდარტები NIST GenAI პროფილი
-
გამოშვების კრიტერიუმები NIST GenAI პროფილი
-
ინციდენტებზე რეაგირების NCSC-ის უსაფრთხო ხელოვნური ინტელექტის სახელმძღვანელო პრინციპები
-
მომხმარებლის საჩივრების დამუშავება NIST AI RMF
-
გაუქმების პროცედურები ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპები
-
ცვლილებების თვალყურის დევნება ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპები
-
დოკუმენტაცია ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპები
უნდა იყოს მკაფიო პასუხები კითხვებზე, როგორიცაა:
-
ვინ ამტკიცებს განლაგებას? NIST GenAI პროფილი
-
ვინ ამოწმებს მავნე გამომავალი ინციდენტებს? NIST GenAI პროფილი
-
ვის შეუძლია ფუნქციის გამორთვა? ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპები
-
ვინ აკონტროლებს რეგრესიებს? NIST AI RMF
-
ვინ უკავშირდება მომხმარებლებს, როდესაც რამე გაფუჭებულია? ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპები
საკუთრების გარეშე, პასუხისმგებლობა ნისლად იქცევა. ყველა ფიქრობს, რომ მას სხვა უმკლავდება... და შემდეგ არავინ.
სინამდვილეში, ეს სქემა ხელოვნურ ინტელექტზე ძველია. ხელოვნური ინტელექტი მას უბრალოდ უფრო საშიშს ხდის.
პასუხისმგებლიანი დეველოპერები აშენებენ გამოსწორებისთვის და არა სრულყოფილებისთვის 🔄
აი, რა არის ამ ყველაფერში პატარა გადახვევა: პასუხისმგებლიანი ხელოვნური ინტელექტის განვითარება არ ნიშნავს იმის პრეტენზიას, რომ სისტემა იდეალური იქნება. ეს ნიშნავს იმის ვარაუდს, რომ ის რაიმე ფორმით ჩავარდება და ამ რეალობის გათვალისწინებით დაპროექტებას. NIST AI RMF
ეს ნიშნავს ისეთი პროდუქტების შექმნას, რომლებიც:
-
აუდიტის ქვეშ მყოფი ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპები
-
გადაწყვეტილებები და შედეგები შეიძლება მოგვიანებით გადაიხედოს
-
-
შეწყვეტადი ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპები
-
ადამიანებს შეუძლიათ ცუდი ქცევის შეჩერება ან დაძლევა
-
-
აღდგენადი ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპები
-
არსებობს სარეზერვო საშუალება, როდესაც ხელოვნური ინტელექტის გამომავალი არასწორია
-
-
მონიტორინგის NCSC უსაფრთხო ხელოვნური ინტელექტის სახელმძღვანელო პრინციპები NIST AI RMF
-
გუნდებს შეუძლიათ შეამჩნიონ კანონზომიერებები კატასტროფებად გადაქცევამდე
-
-
გაუმჯობესებული NIST GenAI პროფილი
-
უკუკავშირის მარყუჟები არსებობს და ვიღაც კითხულობს მათ
-
ასე გამოიყურება სიმწიფე. არა ბრწყინვალე დემოები. არა სუნთქვაშეკრული მარკეტინგული ტექსტი. რეალური სისტემები, დამცავი მოაჯირებით, ჟურნალებით, ანგარიშვალდებულებით და საკმარისი თავმდაბლობით იმის აღიარებისთვის, რომ მანქანა ჯადოქარი არ არის. NCSC-ის უსაფრთხო ხელოვნური ინტელექტის სახელმძღვანელო პრინციპები, ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის ხელოვნური ინტელექტის პრინციპები
იმიტომ, რომ ეს ასე არ არის. ეს ინსტრუმენტია. ძლიერი, დიახ. მაგრამ მაინც ინსტრუმენტი.
დასკვნითი მიმოხილვა გენერაციული ხელოვნური ინტელექტის გამოყენებისას დეველოპერების პასუხისმგებლობის შესახებ 🌍
მაშ, რა პასუხისმგებლობა ეკისრებათ დეველოპერებს, რომლებიც იყენებენ გენერაციულ ხელოვნურ ინტელექტს ?
ეს ნიშნავს სიფრთხილით აშენებას. იმის კითხვის ნიშნის ქვეშ დაყენებას, თუ სად ეხმარება სისტემა და სად აზიანებს. კონფიდენციალურობის დაცვას. მიკერძოების შემოწმებას. შედეგების გადამოწმებას. სამუშაო პროცესის უსაფრთხოებას. მომხმარებლებთან გამჭვირვალობას. ადამიანებთან მნიშვნელოვანი კონტროლის შენარჩუნებას. პასუხისმგებლობის შენარჩუნებას, როდესაც რამე არასწორად მიდის. NIST AI RMF OECD AI პრინციპები
ეს შეიძლება მძიმედ ჟღერდეს - და ასეც არის. თუმცა, ეს ასევე განასხვავებს გააზრებულ განვითარებას უგუნური ავტომატიზაციისგან.
გენერაციული ხელოვნური ინტელექტის გამოყენებით საუკეთესო დეველოპერები არ არიან ისინი, ვინც მოდელს ყველაზე მეტ ხრიკს ასრულებენ. ისინი არიან ისინი, ვინც ესმით ამ ხრიკების შედეგები და შესაბამისად ქმნიან დიზაინს. მათ იციან, რომ სიჩქარე მნიშვნელოვანია, მაგრამ ნდობა ნამდვილი პროდუქტია. უცნაურია, რომ ეს ძველმოდური იდეა დღემდე აქტუალურია. NIST AI RMF
საბოლოო ჯამში, პასუხისმგებლობა ინოვაციის დაბრკოლება არ არის. სწორედ ეს უშლის ხელს ინოვაციას გადაიქცეს ძვირადღირებულ, ტურბულენტურ გაშლილად, დახვეწილი ინტერფეისითა და ნდობის პრობლემით 😬✨
და შესაძლოა ეს მისი ყველაზე მარტივი ვერსია იყოს.
თამამად ააშენეთ, რა თქმა უნდა - მაგრამ ისე ააშენეთ, თითქოს ადამიანებზე შეიძლება გავლენა იქონიოს, რადგან ისინიც არიან. ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის (OECD) ხელოვნური ინტელექტის პრინციპები
ხშირად დასმული კითხვები
რა პასუხისმგებლობა ეკისრებათ დეველოპერებს გენერაციული ხელოვნური ინტელექტის პრაქტიკაში გამოყენებისას?
გენერაციული ხელოვნური ინტელექტის გამოყენებით დეველოპერების პასუხისმგებლობა ფუნქციების სწრაფ მიწოდებაზე ბევრად მეტია. ის მოიცავს სწორი გამოყენების შემთხვევის შერჩევას, გამომავალი მონაცემების ტესტირებას, კონფიდენციალურობის დაცვას, მავნე ქცევის შემცირებას და სისტემის მომხმარებლებისთვის გასაგებად გახდომას. პრაქტიკაში, დეველოპერები პასუხისმგებელნი არიან იმაზე, თუ როგორ არის ინსტრუმენტი შექმნილი, მონიტორინგირებული, გამოსწორებული და მართული მისი გაუმართაობის შემთხვევაში.
რატომ სჭირდება გენერაციულ ხელოვნურ ინტელექტს დეველოპერის მეტი პასუხისმგებლობა, ვიდრე ჩვეულებრივ პროგრამულ უზრუნველყოფას?
ტრადიციული შეცდომები ხშირად აშკარაა, მაგრამ ხელოვნური ინტელექტის გენერაციული ჩავარდნები შეიძლება დახვეწილად ჟღერდეს, თუმცა მაინც არასწორი, მიკერძოებული ან სარისკო იყოს. ეს პრობლემების აღმოჩენას ართულებს და მომხმარებლებისთვის შეცდომით სანდოობას აადვილებს. დეველოპერები ალბათურ სისტემებთან მუშაობენ, ამიტომ პასუხისმგებლობა მოიცავს გაურკვევლობის მართვას, ზიანის შეზღუდვას და არაპროგნოზირებადი შედეგებისთვის მომზადებას გაშვებამდე.
როგორ იციან დეველოპერებმა, როდის არ უნდა გამოიყენონ გენერაციული ხელოვნური ინტელექტი?
ხშირად საწყისი წერტილია კითხვა, არის თუ არა დავალება ღია, თუ უკეთესად უმკლავდება წესებით, ძიებით ან სტანდარტული პროგრამული ლოგიკით. დეველოპერებმა ასევე უნდა გაითვალისწინონ, თუ რამდენად შეიძლება გამოიწვიოს არასწორმა პასუხმა ზიანი და შეუძლია თუ არა ადამიანს რეალისტურად გადახედოს შედეგებს. პასუხისმგებლიანი გამოყენება ზოგჯერ ნიშნავს გენერაციული ხელოვნური ინტელექტის საერთოდ არგამოყენების გადაწყვეტილებას.
როგორ შეუძლიათ დეველოპერებს შეამცირონ ჰალუცინაციები და არასწორი პასუხები გენერაციულ ხელოვნურ ინტელექტ სისტემებში?
სიზუსტე უნდა იყოს შემუშავებული და არა ვარაუდი. ბევრ პროცესორში ეს ნიშნავს გამომავალი მონაცემების სანდო წყაროებზე დაფუძნებას, გენერირებული ტექსტის დადასტურებული ფაქტებისგან გამოყოფას და მაღალი რისკის შემცველი ამოცანებისთვის მიმოხილვის სამუშაო პროცესების გამოყენებას. დეველოპერებმა ასევე უნდა გამოსცადონ ისეთი მოთხოვნები, რომლებიც სისტემის დაბნევას ან შეცდომაში შეყვანას ისახავს მიზნად, განსაკუთრებით ისეთ სფეროებში, როგორიცაა კოდი, მხარდაჭერა, ფინანსები, განათლება და ჯანდაცვა.
რა პასუხისმგებლობა ეკისრებათ დეველოპერებს, რომლებიც იყენებენ გენერაციულ ხელოვნურ ინტელექტს კონფიდენციალურობისა და მგრძნობიარე მონაცემების დასაცავად?
გენერაციული ხელოვნური ინტელექტის გამოყენებით დეველოპერების პასუხისმგებლობა მოიცავს მოდელში შემავალი მონაცემების მინიმიზაციას და მოთხოვნების, ჟურნალებისა და გამომავალი მონაცემების მგრძნობიარედ მიჩნევას. დეველოპერებმა, სადაც შესაძლებელია, უნდა ამოიღონ იდენტიფიკატორები, შეზღუდონ შენახვა, აკონტროლონ წვდომა და ყურადღებით გადახედონ მომწოდებლის პარამეტრებს. მომხმარებლებს ასევე უნდა შეეძლოთ იმის გაგება, თუ როგორ ხდება მათი მონაცემების დამუშავება, რისკების მოგვიანებით აღმოჩენის ნაცვლად.
როგორ უნდა გაუმკლავდნენ დეველოპერები მიკერძოებასა და სამართლიანობას გენერაციული ხელოვნური ინტელექტის შედეგებში?
მიკერძოების კვლევა აქტიურ შეფასებას მოითხოვს და არა ვარაუდებს. პრაქტიკული მიდგომაა სხვადასხვა დემოგრაფიულ ჯგუფში, ენასა და კონტექსტში მოთხოვნების ტესტირება, შემდეგ კი შედეგების გადახედვა სტერეოტიპების, გარიყულობის ან არათანაბარი წარუმატებლობის ნიმუშების აღმოსაჩენად. დეველოპერებმა ასევე უნდა შექმნან გზები, რათა მომხმარებლებმა ან გუნდებმა შეატყობინონ მავნე ქცევის შესახებ, რადგან სისტემა შეიძლება საერთო ჯამში ძლიერი ჩანდეს, მაგრამ მაინც მუდმივად აფუჭებდეს გარკვეულ ჯგუფებს.
რა უსაფრთხოების რისკებზე უნდა იფიქრონ დეველოპერებმა გენერაციული ხელოვნური ინტელექტის გამოყენებისას?
გენერაციული ხელოვნური ინტელექტი ნერგავს შეტევის ახალ ზედაპირებს, მათ შორის სწრაფ ინექციას, ინსტრუმენტების სახიფათო გამოყენებას, კონტექსტის მეშვეობით მონაცემთა გაჟონვას და ავტომატიზირებული მოქმედებების ბოროტად გამოყენებას. დეველოპერებმა უნდა გაასუფთაონ არასანდო შეყვანა, შეზღუდონ ინსტრუმენტების ნებართვები, შეზღუდონ ფაილებსა და ქსელზე წვდომა და აკონტროლონ ბოროტად გამოყენების ნიმუშები. უსაფრთხოება მხოლოდ ინტერფეისს არ ეხება; ის ვრცელდება მოდელის გარშემო არსებულ სრულ სამუშაო პროცესზე.
რატომ არის გამჭვირვალობა მნიშვნელოვანი გენერაციული ხელოვნური ინტელექტით მშენებლობისას?
მომხმარებლებმა ნათლად უნდა იცოდნენ, როდის არის ხელოვნური ინტელექტი ჩართული, რა შეუძლია მას და სად არის მისი საზღვრები. კარგი გამჭვირვალობა შეიძლება მოიცავდეს ისეთ ეტიკეტებს, როგორიცაა ხელოვნური ინტელექტის მიერ გენერირებული ან ხელოვნური ინტელექტის დახმარებით შექმნილი, მარტივ ახსნა-განმარტებებს და ადამიანის მხარდაჭერის მკაფიო გზებს. ასეთი გულწრფელობა არ ასუსტებს პროდუქტს; ის ეხმარება მომხმარებლებს ნდობის მოპოვებასა და უკეთესი გადაწყვეტილებების მიღებაში.
ვინ არის პასუხისმგებელი, როდესაც გენერაციული ხელოვნური ინტელექტის ფუნქცია ზიანს აყენებს ან რაიმე არასწორს აკეთებს?
დეველოპერები და პროდუქტის გუნდები კვლავ ფლობენ შედეგს, მაშინაც კი, როდესაც მოდელი იძლევა პასუხს. ეს ნიშნავს, რომ უნდა არსებობდეს მკაფიო პასუხისმგებლობა განლაგების დამტკიცებაზე, ინციდენტების მართვაზე, გაუქმებაზე, მონიტორინგსა და მომხმარებლებთან კომუნიკაციაზე. „მოდელმა გადაწყვიტა“ საკმარისი არ არის, რადგან პასუხისმგებლობა უნდა დარჩეს იმ ადამიანების ხელში, ვინც შექმნა და გაუშვა სისტემა.
როგორ გამოიყურება პასუხისმგებლიანი გენერაციული ხელოვნური ინტელექტის განვითარება გაშვების შემდეგ?
პასუხისმგებლიანი განვითარება გამოშვების შემდეგაც გრძელდება მონიტორინგის, უკუკავშირის, მიმოხილვისა და კორექტირების გზით. ძლიერი სისტემები აუდიტირებადი, შეფერხებადი, აღდგენადია და ხელოვნური ინტელექტის ჩავარდნის შემთხვევაში სარეზერვო გზებით არის შექმნილი. მიზანი სრულყოფილება არ არის; ეს ისეთი რამის შექმნაა, რისი შემოწმება, გაუმჯობესება და უსაფრთხოდ კორექტირებაც შესაძლებელია რეალური სამყაროს პრობლემების წარმოშობისთანავე.
ცნობები
-
სტანდარტებისა და ტექნოლოგიების ეროვნული ინსტიტუტი (NIST) - NIST GenAI პროფილი - nvlpubs.nist.gov
-
OWASP - OWASP-ის ტოპ 10 LLM აპლიკაციებისთვის - owasp.org
-
ინფორმაციის კომისრის ოფისი (ICO) - ICO-ს რვა კითხვა გენერაციული ხელოვნური ინტელექტის შესახებ - ico.org.uk