ნეირონული ქსელები იდუმალებით ჟღერს, სანამ საბოლოოდ არ გაქრება. თუ ოდესმე დაფიქრებულხართ, რა არის ნეირონული ქსელი ხელოვნურ ინტელექტში? და არის თუ არა ეს მხოლოდ მათემატიკა ელეგანტურად, სწორ ადგილას ხართ. ჩვენ მას პრაქტიკულად გავაგრძელებთ, მცირე გადახვევებს გავაკეთებთ და დიახ - რამდენიმე ემოჯისაც. წასვლისას თქვენ გეცოდინებათ, თუ რა არის ეს სისტემები, რატომ მუშაობენ ისინი, სად ვერ ახერხებენ და როგორ ისაუბროთ მათზე ხელის ქნევის გარეშე.
სტატიები, რომელთა წაკითხვაც შეიძლება მოგეწონოთ ამის შემდეგ:
🔗 რა არის ხელოვნური ინტელექტის მიკერძოება?
ხელოვნური ინტელექტის სისტემებსა და სტრატეგიებში მიკერძოების გაგება სამართლიანობის უზრუნველსაყოფად.
🔗 რა არის პროგნოზირებადი ხელოვნური ინტელექტი?
როგორ იყენებს პროგნოზირებადი ხელოვნური ინტელექტი ნიმუშებს მომავალი შედეგების პროგნოზირებისთვის.
🔗 რა არის ხელოვნური ინტელექტის ტრენერი?
ხელოვნური ინტელექტის სპეციალისტების წვრთნის პროფესიონალების როლისა და პასუხისმგებლობების შესწავლა.
🔗 რა არის კომპიუტერული ხედვა ხელოვნურ ინტელექტში?
როგორ ახდენს ხელოვნური ინტელექტი ვიზუალურ მონაცემებს ინტერპრეტაციას და ანალიზს კომპიუტერული ხედვის საშუალებით.
რა არის ნეირონული ქსელი ხელოვნურ ინტელექტში? 10 წამიანი პასუხი ⏱️
ნეირონული ქსელი არის მარტივი გამოთვლითი ერთეულების, ნეირონების, ერთობლიობა, რომლებიც რიცხვებს წინ გადასცემენ, ვარჯიშის დროს არეგულირებენ კავშირის სიძლიერეს და თანდათანობით სწავლობენ მონაცემებში არსებულ ნიმუშებს. როდესაც გესმით ღრმა სწავლება , ეს ჩვეულებრივ ნიშნავს ნეირონულ ქსელს მრავალი დაწყობილი ფენით, რომელიც ავტომატურად სწავლობს ფუნქციებს, ხელით კოდირების ნაცვლად. სხვა სიტყვებით რომ ვთქვათ: უამრავი პაწაწინა მათემატიკური ნაწილი, ჭკვიანურად დალაგებული, მონაცემებზე გაწვრთნილი მანამ, სანამ ისინი სასარგებლო არ გახდება [1].
რა ხდის ნეირონულ ქსელს სასარგებლოს? ✅
-
წარმოდგენის ძალა : სწორი არქიტექტურითა და ზომით, ქსელებს შეუძლიათ ზედმეტად რთული ფუნქციების მიახლოებით გამოთვლა (იხილეთ უნივერსალური მიახლოების თეორემა) [4].
-
ყოვლისმომცველი სწავლება : ხელით ინჟინერიის ნაცვლად, მოდელი აღმოაჩენს მათ [1].
-
განზოგადება : კარგად რეგულირებული ქსელი არა მხოლოდ იმახსოვრებს - არამედ მუშაობს ახალ, უხილავ მონაცემებზე [1].
-
მასშტაბირება : უფრო დიდი მონაცემთა ნაკრებები და უფრო დიდი მოდელები ხშირად აუმჯობესებენ შედეგებს... პრაქტიკულ ზღვრებამდე, როგორიცაა გამოთვლები და მონაცემთა ხარისხი [1].
-
ტრანსფერულობა : ერთი დავალებით შესწავლილი მახასიათებლები შეიძლება დაეხმაროს მეორეს (ტრანსფერული სწავლა და დახვეწა) [1].
მცირე შენიშვნა (მაგალითი სცენარი): პროდუქტის კლასიფიკაციის მცირე ჯგუფი ხელით აწყობილ ფუნქციებს კომპაქტური CNN-ით ცვლის, მარტივ დანამატებს (გადაბრუნებები/მოჭრა) და აკვირდება ვალიდაციის შეცდომის შემცირებას - არა იმიტომ, რომ ქსელი „ჯადოსნურია“, არამედ იმიტომ, რომ მან უფრო სასარგებლო ფუნქციები პირდაპირ პიქსელებიდან ისწავლა.
„რა არის ნეირონული ქსელი ხელოვნურ ინტელექტში?“ მარტივი ინგლისურით, საეჭვო მეტაფორით 🍞
წარმოიდგინეთ საცხობი ხაზი. ინგრედიენტები შედის, მუშები რეცეპტს ცვლიან, დეგუსტატორები წუწუნებენ და გუნდი ხელახლა აახლებს რეცეპტს. ქსელში შემავალი მონაცემები ფენებში მიედინება, დანაკარგის ფუნქცია აფასებს გამოსავალს და გრადიენტები წონებს უბიძგებს, რომ შემდეგ ჯერზე უკეთესი შედეგი იყოს. მეტაფორად იდეალური არ არის - პური დიფერენცირებადი არ არის - მაგრამ ის ეკვრის [1].
ნეირონული ქსელის ანატომია 🧩
-
ნეირონები : პაწაწინა კალკულატორები, რომლებიც იყენებენ შეწონილ ჯამს და აქტივაციის ფუნქციას.
-
წონა და გადახრები : რეგულირებადი ღილაკები, რომლებიც განსაზღვრავენ, თუ როგორ აერთიანებენ სიგნალები.
-
ფენები : შეყვანის ფენა იღებს მონაცემებს, დაფარული ფენები გარდაქმნიან მას, გამომავალი ფენა აკეთებს პროგნოზს.
-
გააქტიურების ფუნქციები : არაწრფივი ბრუნვები, როგორიცაა ReLU, sigmoid, tanh და softmax, სწავლას მოქნილს ხდის.
-
დანაკარგის ფუნქცია : ქულა, რომელიც აჩვენებს, თუ რამდენად არასწორია პროგნოზი (კლასიფიკაციისთვის ჯვარედინი ენტროპია, რეგრესიისთვის MSE).
-
ოპტიმიზატორი : ისეთი ალგორითმები, როგორიცაა SGD ან Adam, გრადიენტებს იყენებენ წონების განახლებისთვის.
-
რეგულარიზაცია : ტექნიკა, როგორიცაა ჩამოვარდნა ან წონის დაკლება, რათა თავიდან იქნას აცილებული მოდელის ზედმეტად მორგება.
თუ გსურთ ფორმალური (მაგრამ მაინც წასაკითხი) განხილვა, ღია სახელმძღვანელო „ ღრმა სწავლება“ მოიცავს სრულ საკითხებს: მათემატიკის საფუძვლები, ოპტიმიზაცია და განზოგადება [1].
გააქტიურების ფუნქციები, მოკლედ, მაგრამ სასარგებლოდ ⚡
-
ReLU : ნული უარყოფითი რიცხვებისთვის, წრფივი დადებითი რიცხვებისთვის. მარტივი, სწრაფი, ეფექტური.
-
სიგმოიდი : აჭეშებს მნიშვნელობებს 0-დან 1-მდე - სასარგებლოა, მაგრამ შეიძლება გაჯერდეს.
-
ტანჰ : სიგმოიდის მსგავსი, მაგრამ სიმეტრიული ნულის გარშემო.
-
Softmax : კლასებს შორის ნედლ ქულებს ალბათობებად გარდაქმნის.
არ არის საჭირო ყველა მრუდის ფორმის დამახსოვრება - უბრალოდ იცოდეთ კომპრომისები და გავრცელებული ნაგულისხმევი პარამეტრები [1, 2].
როგორ მიმდინარეობს სწავლა სინამდვილეში: ფონური, მაგრამ არა საშიში 🔁
-
წინ გადატანა : მონაცემები ფენა-ფენა მიედინება პროგნოზის შესაქმნელად.
-
დანაკარგის გამოთვლა : შეადარეთ პროგნოზი სიმართლეს.
-
უკუგავრცელება : ჯაჭვური წესის გამოყენებით, გამოთვალეთ დანაკარგის გრადიენტები თითოეული წონის მიმართ.
-
განახლება : ოპტიმიზატორი ოდნავ ცვლის წონას.
-
გამეორება : მრავალი ეპოქა. მოდელი თანდათან სწავლობს.
ვიზუალური ეფექტებითა და კოდის მიმდებარე ახსნა-განმარტებებით პრაქტიკული ინტუიციისთვის იხილეთ კლასიკური CS231n შენიშვნები backprop-ისა და ოპტიმიზაციის შესახებ [2].
ნეირონული ქსელების ძირითადი ოჯახები, ერთი შეხედვით 🏡
-
უკუკავშირის ქსელები (MLP) : უმარტივესი სახეობა. მონაცემები მხოლოდ წინ გადადის.
-
კონვოლუციური ნეირონული ქსელები (CNN) : შესანიშნავია სურათებისთვის სივრცითი ფილტრების წყალობით, რომლებიც აფიქსირებენ კიდეებს, ტექსტურებს, ფორმებს [2].
-
რეკურენტული ნეირონული ქსელები (RNN) და ვარიანტები : აგებულია ტექსტის ან დროის სერიების მსგავსი თანმიმდევრობებისთვის წესრიგის შენარჩუნებით [1].
-
ტრანსფორმერები : ყურადღება მიაქციეთ თანმიმდევრობაში პოზიციებს შორის ურთიერთობების ერთდროულად მოდელირებას; დომინანტურია ენაში და მის ფარგლებს გარეთაც [3].
-
გრაფიკული ნეირონული ქსელები (GNN) : გრაფის კვანძებსა და კიდეებზე მუშაობა - სასარგებლოა მოლეკულებისთვის, სოციალური ქსელებისთვის, რეკომენდაცია [1].
-
ავტოენკოდერები და VAE-ები : შეკუმშული წარმოდგენების შესწავლა და ვარიაციების გენერირება [1].
-
გენერაციული მოდელები : GAN-ებიდან დიფუზიურ მოდელებამდე, რომლებიც გამოიყენება სურათებისთვის, აუდიოსთვის და კოდისთვისაც კი [1].
CS231n-ის ჩანაწერები განსაკუთრებით მოსახერხებელია CNN-ებისთვის, ხოლო Transformer-ის ქაღალდი ყურადღებაზე ორიენტირებული მოდელების ძირითადი წყაროა [2, 3].
შედარების ცხრილი: ნეირონული ქსელების გავრცელებული ტიპები, ვისთვის არიან ისინი განკუთვნილი, ღირებულების ვიბრაციები და რატომ მუშაობენ ისინი 📊
| ინსტრუმენტი / ტიპი | აუდიტორია | ფასის მსგავსი | რატომ მუშაობს |
|---|---|---|---|
| უკუკავშირი (MLP) | დამწყებები, ანალიტიკოსები | დაბალი-საშუალო | მარტივი, მოქნილი, ღირსეული საბაზისო ხაზები |
| CNN | ხედვის გუნდები | საშუალო | ლოკალური შაბლონები + პარამეტრების გაზიარება |
| RNN / LSTM / GRU | თანმიმდევრობის ხალხი | საშუალო | დროებითი მეხსიერების მსგავსი... წესრიგს იჭერს |
| ტრანსფორმატორი | NLP, მულტიმოდალური | საშუალო-მაღალი | ყურადღება შესაბამის ურთიერთობებზეა კონცენტრირებული |
| GNN | მეცნიერები, რეციკლისტები | საშუალო | გრაფიკებზე შეტყობინების გადაცემა სტრუქტურას ავლენს |
| ავტოენკოდერი / VAE | მკვლევარები | დაბალი-საშუალო | სწავლობს შეკუმშულ წარმოდგენებს |
| GAN / დიფუზია | შემოქმედებითი ლაბორატორიები | საშუალო-მაღალი | შეჯიბრებითი ან განმეორებითი ხმაურის მოხსნის მაგია |
შენიშვნები: ფასები გამოთვლებსა და დროს ეხება; გარბენი განსხვავებულია. ერთი ან ორი მობილური განზრახ ლაყბობს.
„რა არის ნეირონული ქსელი ხელოვნურ ინტელექტში?“ კლასიკური მანქანური სწავლების ალგორითმების წინააღმდეგ ⚖️
-
ფუნქციების ინჟინერია : კლასიკური მანქანური სწავლება ხშირად ეყრდნობა ხელით ფუნქციებს. ნეირონული ქსელები ავტომატურად სწავლობენ ფუნქციებს - ეს დიდი გამარჯვებაა რთული მონაცემებისთვის [1].
-
მონაცემთა შიმშილი : ქსელები ხშირად უფრო მეტი მონაცემებით გამოირჩევიან; მცირე მონაცემები შეიძლება უფრო მარტივ მოდელებს ემხრობოდეს [1].
-
გამოთვლა : ქსელებს უყვართ ამაჩქარებლები, როგორიცაა გრაფიკული პროცესორები [1].
-
შესრულების ჭერი : არასტრუქტურირებული მონაცემებისთვის (სურათები, აუდიო, ტექსტი), ღრმა ქსელები, როგორც წესი, დომინირებს [1, 2].
ტრენინგის სამუშაო პროცესი, რომელიც პრაქტიკაში რეალურად მუშაობს 🛠️
-
განსაზღვრეთ მიზანი : კლასიფიკაცია, რეგრესია, რანჟირება, გენერაცია - აირჩიეთ შესაბამისი დანაკარგი.
-
მონაცემთა დამუშავება : დაყოფა მატარებელ/ვალიდაციურ/ტესტირებად. ფუნქციების ნორმალიზება. კლასების დაბალანსება. სურათებისთვის განიხილეთ აუგმენტაცია, როგორიცაა გადაბრუნებები, ჩამოჭრა, მცირე ხმაური.
-
არქიტექტურის არჩევანი : დაიწყეთ მარტივად. დაამატეთ ტევადობა მხოლოდ საჭიროების შემთხვევაში.
-
სავარჯიშო ციკლი : მონაცემების პარტიული დაჯგუფება. წინ გადატანა. დანაკარგის გამოთვლა. უკუპროპორცია. განახლება. მეტრიკის ჟურნალირება.
-
რეგულარიზაცია : კვების შეწყვეტა, წონის დაკლება, ნაადრევი შეწყვეტა.
-
შეფასება : გამოიყენეთ ჰიპერპარამეტრების ვალიდაციის ნაკრები. საბოლოო შემოწმებისთვის გამოყავით სატესტო ნაკრები.
-
ფრთხილად გადაზიდვა : აკონტროლეთ დრიფტი, შეამოწმეთ გადახრა, დაგეგმეთ უკუსვლა.
მყარი თეორიით, კოდზე ორიენტირებული ყოვლისმომცველი სახელმძღვანელოებისთვის, ღია სახელმძღვანელო და CS231n-ის შენიშვნები საიმედო საყრდენებს წარმოადგენს [1, 2].
ზედმეტად მორგება, განზოგადება და სხვა გრემლინები 👀
-
გადაფარვა : მოდელი იმახსოვრებს ტრენინგის თავისებურებებს. გამოასწორეთ მეტი მონაცემებით, უფრო ძლიერი რეგულარიზაციით ან უფრო მარტივი არქიტექტურით.
-
არასაკმარისი მორგება : მოდელი ძალიან მარტივია ან ვარჯიში ძალიან მორცხვია. გაზარდეთ ტევადობა ან უფრო დიდხანს ივარჯიშეთ.
-
მონაცემთა გაჟონვა : სატესტო ნაკრებიდან ინფორმაცია ტრენინგში იპარება. სამჯერ შეამოწმეთ თქვენი გაყოფები.
-
ცუდი კალიბრაცია : მოდელი, რომელიც თავდაჯერებულია, მაგრამ არასწორია, სახიფათოა. განიხილეთ კალიბრაცია ან სხვა დანაკარგის წონა.
-
განაწილების ცვლილება : რეალურ სამყაროში მონაცემების გადაადგილება. მონიტორინგი და ადაპტაცია.
განზოგადებისა და რეგულარიზაციის თეორიისთვის, დაეყრდნობით სტანდარტულ წყაროებს [1, 2].
უსაფრთხოება, ინტერპრეტაციის სიმარტივე და პასუხისმგებლიანი განლაგება 🧭
ნეირონულ ქსელებს შეუძლიათ მაღალი რისკის შემცველი გადაწყვეტილებების მიღება. საკმარისი არ არის, რომ ისინი ლიდერბორდზე კარგად მუშაობდნენ. საჭიროა მმართველობის, გაზომვისა და შერბილების ნაბიჯები მთელი სასიცოცხლო ციკლის განმავლობაში. NIST-ის ხელოვნური ინტელექტის რისკების მართვის ჩარჩო ასახავს პრაქტიკულ ფუნქციებს - GOVERN, MAP, MEASURE, MANAGE - რათა დაეხმაროს გუნდებს რისკების მართვის ინტეგრირებაში დიზაინსა და განლაგებაში [5].
რამდენიმე სწრაფი მინიშნება:
-
მიკერძოების შემოწმება : შეაფასეთ დემოგრაფიული ფენები, სადაც ეს მიზანშეწონილი და კანონიერია.
-
ინტერპრეტაცია : გამოიყენეთ ისეთი ტექნიკები, როგორიცაა გამოკვეთილობა ან მახასიათებლების ატრიბუცია. ისინი არასრულყოფილია, მაგრამ სასარგებლო.
-
მონიტორინგი : დააყენეთ შეტყობინებები მეტრიკის უეცარი ვარდნის ან მონაცემთა გადახრის შესახებ.
-
ადამიანის ზედამხედველობა : მიაწოდეთ ადამიანებს ინფორმაცია მნიშვნელოვანი გადაწყვეტილებების მიღების შესახებ. არანაირი გმირობა, მხოლოდ ჰიგიენა.
ხშირად დასმული კითხვები, რომლებიც ფარულად გქონდათ 🙋
ნეირონული ქსელი ძირითადად ტვინია?
ტვინით შთაგონებული, დიახ - მაგრამ გამარტივებულად. ქსელებში ნეირონები მათემატიკური ფუნქციებია; ბიოლოგიური ნეირონები ცოცხალი უჯრედებია რთული დინამიკით. მსგავსი ვიბრაციები, ძალიან განსხვავებული ფიზიკა [1].
რამდენი ფენა დამჭირდება?
დაიწყეთ მცირედით. თუ არასაკმარისად ვარჯიშობთ, დაამატეთ სიგანე ან სიღრმე. თუ ზედმეტად ვარჯიშობთ, დაარეგულირეთ ან შეამცირეთ ტევადობა. ჯადოსნური რიცხვი არ არსებობს; არსებობს მხოლოდ დადასტურების მრუდები და მოთმინება [1].
ყოველთვის მჭირდება გრაფიკული პროცესორი?
ყოველთვის არა. მცირე ზომის მოდელებს, რომლებიც მოკრძალებულ მონაცემებზეა დაფუძნებული, შეუძლიათ პროცესორებზე ივარჯიშონ, მაგრამ სურათებისთვის, დიდი ტექსტური მოდელებისთვის ან დიდი მონაცემთა ნაკრებებისთვის, ამაჩქარებლები უამრავ დროს ზოგავენ [1].
რატომ ამბობენ ადამიანები, რომ ყურადღებას დიდი ძალა აქვს?
რადგან ყურადღება საშუალებას აძლევს მოდელებს, ყურადღება გაამახვილონ შეყვანის ყველაზე მნიშვნელოვან ნაწილებზე მკაცრი თანმიმდევრობით მოძრაობის გარეშე. ის ასახავს გლობალურ ურთიერთობებს, რაც მნიშვნელოვანია ენისა და მულტიმოდალური ამოცანებისთვის [3].
განსხვავდება თუ არა „რა არის ნეირონული ქსელი ხელოვნურ ინტელექტში?“ „რა არის ღრმა სწავლება“-სგან?
ღრმა სწავლება უფრო ფართო მიდგომაა, რომელიც ღრმა ნეირონულ ქსელებს იყენებს. ამიტომ, კითხვა, თუ რა არის ნეირონული ქსელი ხელოვნურ ინტელექტში, მთავარი გმირის შესახებ კითხვას ჰგავს; ღრმა სწავლება მთელი ფილმია [1].
პრაქტიკული, ოდნავ კრიტიკული რჩევები 💡
-
უპირატესობა მიანიჭეთ მარტივ საბაზისო ხაზებს . მონაცემების შესწავლა შესაძლებელია თუ არა მცირე, მრავალშრიანი პერცეპტრონითაც კი.
-
შეინარჩუნეთ თქვენი მონაცემთა არხის რეპროდუცირებადი . თუ მისი ხელახლა გაშვება შეუძლებელია, მას ვერ ენდობით.
-
სწავლის ტემპი უფრო მნიშვნელოვანია, ვიდრე თქვენ გგონიათ. სცადეთ გრაფიკი. გახურება დაგეხმარებათ.
-
პარტიის ზომის კომპრომისები არსებობს. უფრო დიდი პარტიები გრადიენტებს სტაბილიზაციას უკეთებს, მაგრამ შესაძლოა განსხვავებულად განზოგადდეს.
-
დაბნეულობის შემთხვევაში, ააგეთ დანაკარგის მრუდები და წონის ნორმები . გაგიკვირდებათ, რამდენად ხშირად არის პასუხი ნახაზებში.
-
დოკუმენტირებული ვარაუდები. მომავალი - თქვენ სწრაფად ივიწყებთ რაღაცეებს [1, 2].
ღრმა მიმოხილვა: მონაცემების როლი, ან რატომ ნიშნავს ნაგვის შემოტანა მაინც ნაგვის გატანას 🗑️➡️✨
ნეირონული ქსელები ჯადოსნურად არ ასწორებენ დეფექტურ მონაცემებს. დამახინჯებული ეტიკეტები, ანოტაციების შეცდომები ან ვიწრო შერჩევა - ეს ყველაფერი აისახება მოდელზე. შეარჩიეთ, აუდიტი გააკეთეთ და დაამატეთ. და თუ არ ხართ დარწმუნებული, გჭირდებათ მეტი მონაცემი თუ უკეთესი მოდელი, პასუხი ხშირად შემაწუხებლად მარტივია: ორივე - მაგრამ დაიწყეთ მონაცემთა ხარისხით [1].
„რა არის ნეირონული ქსელი ხელოვნურ ინტელექტში?“ - მოკლე განმარტებები, რომელთა ხელახლა გამოყენებაც შეგიძლიათ 🧾
-
ნეირონული ქსელი არის ფენიანი ფუნქციის აპროქსიმატორი, რომელიც სწავლობს რთულ ნიმუშებს გრადიენტის სიგნალების გამოყენებით წონების რეგულირებით [1, 2].
-
ეს არის სისტემა, რომელიც შემავალ მონაცემებს გამოსავალად გარდაქმნის თანმიმდევრული არაწრფივი ნაბიჯებით, რომელიც გაწვრთნილია დანაკარგის მინიმიზაციისთვის [1].
-
ეს არის მოქნილი, მონაცემებზე ორიენტირებული მოდელირების მიდგომა, რომელიც არასტრუქტურირებულ შეყვანებზე, როგორიცაა სურათები, ტექსტი და აუდიო [1, 2, 3], აყვავდება.
ძალიან გრძელია, არ წამიკითხავს და დასკვნითი შენიშვნები 🎯
თუ ვინმე გკითხავთ, რა არის ნეირონული ქსელი ხელოვნურ ინტელექტში?, მოკლედ რომ ვთქვათ: ნეირონული ქსელი არის მარტივი ერთეულების ერთობლიობა, რომლებიც მონაცემებს ეტაპობრივად გარდაქმნიან, სწავლობენ ტრანსფორმაციას დანაკარგის მინიმიზაციით და გრადიენტების მიყოლით. ისინი მძლავრები არიან, რადგან მასშტაბირდებიან, ავტომატურად სწავლობენ ფუნქციებს და შეუძლიათ ძალიან რთული ფუნქციების წარმოდგენა [1, 4]. ისინი სარისკოა, თუ უგულებელყოფთ მონაცემთა ხარისხს, მართვას ან მონიტორინგს [5]. და ისინი არ არიან მაგია. უბრალოდ მათემატიკა, გამოთვლები და კარგი ინჟინერია - გემოვნებით.
დამატებითი საკითხავი, ყურადღებით შერჩეული (ციტირების გარეშე დამატებითი მასალა)
-
სტენფორდის CS231n შენიშვნები - ხელმისაწვდომი და პრაქტიკული: https://cs231n.github.io/
-
DeepLearningBook.org - კანონიკური ცნობარი: https://www.deeplearningbook.org/
-
NIST-ის ხელოვნური ინტელექტის რისკების მართვის ჩარჩო - პასუხისმგებლიანი ხელოვნური ინტელექტის სახელმძღვანელო: https://www.nist.gov/itl/ai-risk-management-framework
-
„ყურადღება მხოლოდ ისაა, რაც გჭირდება“ - ტრანსფორმერის ნაშრომი: https://arxiv.org/abs/1706.03762
ცნობები
[1] გუდფელოუ, ი., ბენჯიო, ი. და კურვილი, ა. ღრმა სწავლება . MIT Press. უფასო ონლაინ ვერსია: წაიკითხეთ მეტი
[2] სტენფორდის CS231n. ვიზუალური ამოცნობის კონვოლუციური ნეირონული ქსელები (კურსის შენიშვნები): წაიკითხეთ მეტი
[3] ვასვანი, ა., შაზირი, ნ., პარმარი, ნ. და სხვ. (2017). ყურადღება ყველაფერია, რაც გჭირდებათ . NeurIPS. arXiv: წაიკითხეთ მეტი
[4] ციბენკო, გ. (1989). სიგმოიდური ფუნქციის სუპერპოზიციებით მიახლოება . მართვის, სიგნალებისა და სისტემების მათემატიკა , 2, 303–314. Springer: წაიკითხეთ მეტი
[5] NIST. ხელოვნური ინტელექტის რისკების მართვის ჩარჩო (AI RMF) : წაიკითხეთ მეტი