როგორ სწავლობს ხელოვნური ინტელექტი? ეს სახელმძღვანელო ძირითად იდეებს გასაგებ ენაზე ახსნის - მაგალითებით, მცირე გადახვევებითა და რამდენიმე არასრულყოფილი მეტაფორით, რომლებიც მაინც გარკვეულწილად გვეხმარება. მოდით, დავიწყოთ. 🙂
სტატიები, რომელთა წაკითხვაც შეიძლება მოგეწონოთ ამის შემდეგ:
🔗 რა არის პროგნოზირებადი ხელოვნური ინტელექტი?
როგორ პროგნოზირებენ პროგნოზირებადი მოდელები შედეგებს ისტორიული და რეალურ დროში მონაცემების გამოყენებით.
🔗 რომელ ინდუსტრიებს შეცვლის ხელოვნური ინტელექტი?
სექტორები, სავარაუდოდ, ტრანსფორმირებულია ავტომატიზაციის, ანალიტიკისა და აგენტების მიერ.
🔗 რას ნიშნავს GPT?
GPT აბრევიატურისა და წარმოშობის ნათელი ახსნა.
🔗 რა არის ხელოვნური ინტელექტის უნარები?
ხელოვნური ინტელექტის სისტემების შექმნის, განლაგებისა და მართვის ძირითადი კომპეტენციები.
მაშ, როგორ აკეთებს ამას? ✅
როდესაც ადამიანები კითხულობენ, თუ როგორ სწავლობს ხელოვნური ინტელექტი?, ისინი, როგორც წესი, გულისხმობენ: როგორ ხდებიან მოდელები სასარგებლო და არა უბრალოდ ლამაზი მათემატიკური სათამაშოები. პასუხი რეცეპტია:
-
მკაფიო მიზანი - დანაკარგის ფუნქცია, რომელიც განსაზღვრავს, თუ რას ნიშნავს „კარგი“. [1]
-
ხარისხიანი მონაცემები - მრავალფეროვანი, სუფთა და შესაბამისი. რაოდენობა ეხმარება; მრავალფეროვნება კი უფრო მეტად ეხმარება. [1]
-
სტაბილური ოპტიმიზაცია - გრადიენტული დაშვება ხრიკებით, რათა თავიდან აიცილოთ კლდიდან რხევა. [1], [2]
-
განზოგადება - წარმატება ახალ მონაცემებზე და არა მხოლოდ სასწავლო ნაკრებზე. [1]
-
უკუკავშირის მარყუჟები - შეფასება, შეცდომების ანალიზი და იტერაცია. [2], [3]
-
უსაფრთხოება და საიმედოობა - დამცავი ღობეები, ტესტირება და დოკუმენტაცია, რათა თავიდან ავიცილოთ ქაოსი. [4]
ხელმისაწვდომი საფუძვლებისთვის, კლასიკური ღრმა სწავლების ტექსტი, ვიზუალურად მოსახერხებელი კურსის ჩანაწერები და პრაქტიკული ჩქარი კურსი მოიცავს ძირითად საკითხებს სიმბოლოებში ჩაძირვის გარეშე. [1]–[3]
როგორ სწავლობს ხელოვნური ინტელექტი? მოკლე პასუხი მარტივ ინგლისურ ენაზე ✍️
ხელოვნური ინტელექტის მოდელი იწყება შემთხვევითი პარამეტრების მნიშვნელობებით. ის აკეთებს პროგნოზს. თქვენ აფასებთ ამ პროგნოზს დანაკარგით . გრადიენტების გამოყენებით ცვლით ამ პარამეტრებს დანაკარგის შესამცირებლად . გაიმეორეთ ეს ციკლი მრავალ მაგალითზე მანამ, სანამ მოდელი არ შეწყვეტს გაუმჯობესებას (ან საჭმელი არ გამოგელევათ). ეს არის ერთ ამოსუნთქვაში შესრულებული სავარჯიშო ციკლი. [1], [2]
თუ გსურთ ცოტა მეტი სიზუსტე, იხილეთ ქვემოთ მოცემული გრადიენტული დაღმართისა და უკუგავრცელების შესახებ სექციები. სწრაფი და ადვილად აღსაქმელი ინფორმაციისთვის, ფართოდ არის ხელმისაწვდომი მოკლე ლექციები და ლაბორატორიული მასალები. [2], [3]
საფუძვლები: მონაცემები, მიზნები, ოპტიმიზაცია 🧩
-
მონაცემები : შემავალი მონაცემები (x) და სამიზნეები (y). რაც უფრო ფართო და ზუსტია მონაცემები, მით უფრო მეტია განზოგადების შანსი. მონაცემთა კურაცია არ არის მომხიბვლელი, მაგრამ ის უცნობი გმირია. [1]
-
მოდელი : ფუნქცია (f_\theta(x)) პარამეტრებით (\theta). ნეირონული ქსელები წარმოადგენს მარტივი ერთეულების დასტებს, რომლებიც რთულად ერთიანდებიან - ლეგოს აგურები, მაგრამ უფრო რბილი. [1]
-
მიზანი : დანაკარგი (L(f_\theta(x), y)), რომელიც ზომავს შეცდომას. მაგალითები: საშუალო კვადრატული შეცდომა (რეგრესია) და ჯვარედინი ენტროპია (კლასიფიკაცია). [1]
-
ოპტიმიზაცია : პარამეტრების განახლებისთვის გამოიყენეთ (სტოქასტური) გრადიენტული დაღმართი: (\theta \leftarrow \theta - \eta \nabla_\theta L). სწავლის სიჩქარე (\eta): ძალიან დიდია და თქვენ ხტუნაობთ; ძალიან პატარაა და თქვენ სამუდამოდ იძინებთ. [2]
დანაკარგის ფუნქციებისა და ოპტიმიზაციის შესახებ მკაფიო შესავლისთვის, სავარჯიშო ხრიკებისა და ხაფანგების შესახებ კლასიკური შენიშვნები შესანიშნავი საშუალებაა. [2]
ზედამხედველობითი სწავლება: ისწავლეთ მონიშნული მაგალითებიდან 🎯
იდეა : აჩვენეთ შეყვანისა და სწორი პასუხის მოდელის წყვილები. მოდელი სწავლობს შესაბამისობას (x \rightarrow y).
-
გავრცელებული დავალებები : გამოსახულების კლასიფიკაცია, განწყობის ანალიზი, ცხრილური პროგნოზირება, მეტყველების ამოცნობა.
-
ტიპური დანაკარგები : კლასიფიკაციისთვის ჯვარედინი ენტროპია, რეგრესიისთვის საშუალო კვადრატული შეცდომა. [1]
-
ნაკლოვანებები : ეტიკეტის ხმაური, კლასის დისბალანსი, მონაცემთა გაჟონვა.
-
გამოსწორებები : სტრატიფიცირებული შერჩევა, ძლიერი დანაკარგები, რეგულარიზაცია და მონაცემთა უფრო მრავალფეროვანი შეგროვება. [1], [2]
ათწლეულების განმავლობაში ჩატარებული საორიენტაციო და საწარმოო პრაქტიკის საფუძველზე, ზედამხედველობითი სწავლება კვლავაც მთავარი სამუშაო ძალაა, რადგან შედეგები პროგნოზირებადია და მეტრიკა კი - მარტივი. [1], [3]
უკონტროლო და თვითკონტროლის ქვეშ სწავლა: ისწავლეთ მონაცემთა სტრუქტურა 🔍
ზედამხედველობის გარეშე სწავლობს ნიმუშებს იარლიყების გარეშე.
-
კლასტერიზაცია : მსგავსი წერტილების დაჯგუფება - k-საშუალო მაჩვენებლები მარტივია და გასაკვირი სასარგებლოა.
-
განზომილებების შემცირება : მონაცემების შეკუმშვა არსებითი მიმართულებით - PCA არის კარიბჭის ინსტრუმენტი.
-
სიმკვრივის/გენერაციული მოდელირება : თავად მონაცემთა განაწილების შესწავლა. [1]
თვითკონტროლი თანამედროვე ძრავაა: მოდელები ქმნიან საკუთარ ზედამხედველობას (ნიღბიანი პროგნოზირება, კონტრასტული სწავლება), რაც საშუალებას გაძლევთ წინასწარ ივარჯიშოთ არალეიბირებული მონაცემების ოკეანეებზე და მოგვიანებით დახვეწოთ ისინი. [1]
გაძლიერებული სწავლება: სწავლა კეთებით და უკუკავშირის მიღებით 🕹️
აგენტი ურთიერთქმედებს გარემოსთან , იღებს ჯილდოებს და სწავლობს პოლიტიკას , რომელიც მაქსიმალურად ზრდის გრძელვადიან ჯილდოს.
-
ძირითადი ნაწილები : მდგომარეობა, მოქმედება, ჯილდო, პოლიტიკა, ღირებულების ფუნქცია.
-
ალგორითმები : Q-სწავლება, პოლიტიკის გრადიენტები, აქტორი-კრიტიკოსი.
-
კვლევა vs. ექსპლუატაცია : სცადეთ ახალი რამ ან ხელახლა გამოიყენეთ ის, რაც მუშაობს.
-
კრედიტების მინიჭება : რომელმა ქმედებამ რა შედეგი გამოიწვია?
ადამიანურ უკუკავშირს შეუძლია ტრენინგის წარმართვა, როდესაც ჯილდოები არეული ხასიათისაა - რანჟირება ან პრეფერენციები ხელს უწყობს ქცევის ფორმირებას იდეალური ჯილდოს ხელით კოდირების გარეშე. [5]
ღრმა სწავლა, უკუსვლით და გრადიენტული დაღმართი - ცემის გული 🫀
ნეირონული ბადეები მარტივი ფუნქციების კომპოზიციებია. სწავლისთვის ისინი უკუგავრცელებას :
-
წინ გადატანა : შეყვანიდან პროგნოზების გამოთვლა.
-
დანაკარგი : გაზომეთ შეცდომა პროგნოზებსა და მიზნებს შორის.
-
უკუგადასვლა : გამოიყენეთ ჯაჭვის წესი თითოეული პარამეტრის მიხედვით დანაკარგის გრადიენტების გამოსათვლელად.
-
განახლება : პარამეტრების გრადიენტის საწინააღმდეგოდ გადატანა ოპტიმიზატორის გამოყენებით.
ისეთი ვარიანტები, როგორიცაა იმპულსი, RMSProp და Adam, ვარჯიშს ნაკლებად ტემპერამენტულს ხდის. რეგულარიზაციის მეთოდები, როგორიცაა ვარჯიშის შეწყვეტა , წონის დაკლება და ადრეული შეწყვეტა, ხელს უწყობს მოდელების განზოგადებას დამახსოვრების ნაცვლად. [1], [2]
ტრანსფორმერები და ყურადღება: რატომ გრძნობენ თანამედროვე მოდელები თავს ჭკვიანურად 🧠✨
ტრანსფორმერებმა ენისა და ხედვის მრავალი განმეორებადი სისტემა ჩაანაცვლეს. მთავარი ხრიკი თვითყურადღებაა , რაც მოდელს საშუალებას აძლევს, კონტექსტიდან გამომდინარე, შეაფასოს შეყვანის სხვადასხვა ნაწილი. პოზიციური კოდირება წესრიგს ამუშავებს, ხოლო მრავალთავიანი ყურადღება მოდელს საშუალებას აძლევს ერთდროულად სხვადასხვა ურთიერთობებზე ფოკუსირდეს. მასშტაბირება - უფრო მრავალფეროვანი მონაცემები, მეტი პარამეტრი, უფრო ხანგრძლივი ტრენინგი - ხშირად გვეხმარება, რაც შემოსავლების შემცირებასა და ხარჯების ზრდას უწყობს ხელს. [1], [2]
განზოგადება, ზედმეტად მორგება და მიკერძოება-ვარიაციის ცეკვა 🩰
მოდელს შეუძლია წარმატებით გაართვას თავი სავარჯიშო კომპლექტს და მაინც წარუმატებლობა განიცადო რეალურ სამყაროში.
-
გადაფარვა : ხმაურის დამახსოვრება. სასწავლო შეცდომა მცირდება, ტესტის შეცდომა იზრდება.
-
არასაკმარისი მორგება : ძალიან მარტივი; სიგნალი ვერ იღებს.
-
მიკერძოება-ვარიაციის კომპრომისი : სირთულე ამცირებს მიკერძოებას, მაგრამ შეუძლია გაზარდოს ვარიაცია.
როგორ განვაზოგადოთ უკეთესად:
-
უფრო მრავალფეროვანი მონაცემები - სხვადასხვა წყარო, დომენი და უპირატესი შემთხვევები.
-
რეგულარიზაცია - სწავლის მიტოვება, წონის კლება, მონაცემების გაზრდა.
-
სათანადო ვალიდაცია - სუფთა სატესტო ნაკრებები, მცირე მონაცემების ჯვარედინი ვალიდაცია.
-
მონიტორინგის დრიფტი - თქვენი მონაცემების განაწილება დროთა განმავლობაში შეიცვლება.
რისკის გათვალისწინებით შექმნილი პრაქტიკა ამას განიხილავს, როგორც სასიცოცხლო ციკლის აქტივობებს - მმართველობას, რუკების შედგენას, გაზომვას და მართვას - და არა ერთჯერად საკონტროლო სიებს. [4]
მნიშვნელოვანი მეტრიკები: როგორ ვიცით, რომ სწავლა მოხდა 📈
-
კლასიფიკაცია : სიზუსტე, სიზუსტე, გახსენება, F1, ROC AUC. დისბალანსირებული მონაცემები მოითხოვს სიზუსტე-გახსენების მრუდებს. [3]
-
რეგრესია : MSE, MAE, (R^2). [1]
-
რანჟირება/მოძიება : MAP, NDCG, recall@K. [1]
-
გენერაციული მოდელები : დაბნეულობა (ენა), BLEU/ROUGE/CIDEr (ტექსტი), CLIP-ზე დაფუძნებული ქულები (მულტიმოდალური) და, რაც მთავარია, ადამიანური შეფასებები. [1], [3]
აირჩიეთ ისეთი მეტრიკები, რომლებიც მომხმარებლის გავლენას შეესაბამება. სიზუსტის მცირედი ცვლილება შეიძლება უმნიშვნელო იყოს, თუ ცრუ დადებითი შედეგები რეალური დანაკარგია. [3]
ტრენინგის სამუშაო პროცესი რეალურ სამყაროში: მარტივი გეგმა 🛠️
-
პრობლემის ჩარჩოში მოყვანა - განსაზღვრეთ შემავალი მონაცემები, გამომავალი მონაცემები, შეზღუდვები და წარმატების კრიტერიუმები.
-
მონაცემთა მილსადენი - შეგროვება, მარკირება, გაწმენდა, დაყოფა, გაფართოება.
-
საბაზისო ხაზი - დაიწყეთ მარტივად; ხაზოვანი ან ხისებრი საბაზისო ხაზები შოკისმომგვრელად კონკურენტუნარიანია.
-
მოდელირება - სცადეთ რამდენიმე ოჯახი: გრადიენტით გაძლიერებული ხეები (ცხრილის სახით), CNN-ები (სურათები), ტრანსფორმატორები (ტექსტი).
-
ტრენინგი - გრაფიკი, სწავლის ტემპის სტრატეგიები, საკონტროლო წერტილები, საჭიროების შემთხვევაში, შერეული სიზუსტე.
-
შეფასება - აბლაციები და შეცდომების ანალიზი. დააკვირდით შეცდომებს და არა მხოლოდ საშუალო მაჩვენებელს.
-
განლაგება - დასკვნების შეგროვების პროცესი, მონიტორინგი, ჟურნალირება, გაუქმების გეგმა.
-
იტერაცია - უკეთესი მონაცემები, დახვეწა ან არქიტექტურის ცვლილებები.
მინი შემთხვევა : ელფოსტის კლასიფიკატორის პროექტი დაიწყო მარტივი წრფივი საბაზისო ხაზით, შემდეგ კი წინასწარ მომზადებული ტრანსფორმატორის დახვეწა. ყველაზე დიდი გამარჯვება მოდელი არ იყო - ეს იყო მარკირების რუბრიკის გამკაცრება და ნაკლებად წარმოდგენილი „კიდის“ კატეგორიების დამატება. როგორც კი ეს ყველაფერი გავითვალისწინეთ, ვალიდაცია F1 საბოლოოდ აკონტროლებდა რეალურ სამყაროს მუშაობას. (თქვენი მომავალი მე: ძალიან მადლიერი ვარ.)
მონაცემთა ხარისხი, ეტიკეტირება და საკუთარი თავის არმოტყუების დახვეწილი ხელოვნება 🧼
ნაგავი შემოდის, სინანული გამოდის. ეტიკეტირების სახელმძღვანელო პრინციპები უნდა იყოს თანმიმდევრული, გაზომვადი და გადახედილი. მნიშვნელოვანია ანოტატორებს შორის შეთანხმება.
-
დაწერეთ რუბრიკები მაგალითებით, კუთხური შემთხვევებითა და ტაი-ბრეიკებით.
-
დუბლიკატებისა და თითქმის დუბლიკატების მონაცემთა ნაკრებების აუდიტი.
-
წარმომავლობის თვალყურის დევნება - საიდან არის თითოეული მაგალითი და რატომ არის ის ჩართული.
-
გაზომეთ მონაცემთა დაფარვა რეალურ მომხმარებლის სცენარებთან შედარებით და არა მხოლოდ მოწესრიგებულ საორიენტაციო მაჩვენებლებთან.
ესენი იდეალურად ჯდება უფრო ფართო, რწმუნებისა და მმართველობის ჩარჩოებში, რომელთა რეალურად გამოყენებაც შეგიძლიათ. [4]
სწავლის, დახვეწის და ადაპტერების გადაცემა - მძიმე ტვირთის ხელახლა გამოყენება ♻️
წინასწარ გაწვრთნილი მოდელები სწავლობენ ზოგად წარმოდგენებს; დახვეწილი რეგულირება მათ თქვენს ამოცანას ნაკლები მონაცემებით ადაპტირებს.
-
მახასიათებლების ამოღება : ხერხემლის გაყინვა, პატარა თავის გაწვრთნა.
-
სრული დახვეწა : განაახლეთ ყველა პარამეტრი მაქსიმალური სიმძლავრისთვის.
-
პარამეტრულად ეფექტური მეთოდები : ადაპტერები, LoRA სტილის დაბალი რანგის განახლებები - კარგია, როდესაც გამოთვლა რთულია.
-
დომენის ადაპტაცია : ჩაშენებების გასწორება დომენებს შორის; მცირე ცვლილებები, დიდი მოგება. [1], [2]
ხელახალი გამოყენების ეს ნიმუშია მიზეზი, რის გამოც თანამედროვე პროექტები შეიძლება სწრაფად განხორციელდეს გმირული ბიუჯეტების გარეშე.
უსაფრთხოება, საიმედოობა და გასწორება - არასავალდებულო ნაწილები 🧯
სწავლა მხოლოდ სიზუსტეს არ ეხება. თქვენ ასევე გჭირდებათ მოდელები, რომლებიც საიმედო, სამართლიანი და დანიშნულებისამებრ გამოყენების შესაბამისია.
-
შეწინააღმდეგებითი მდგრადობა : მცირე ცვლილებებმა შეიძლება მოდელები შეცდომაში შეიყვანოს.
-
მიკერძოება და სამართლიანობა : გაზომეთ ქვეჯგუფის მუშაობა და არა მხოლოდ საერთო საშუალო მაჩვენებლები.
-
ინტერპრეტაცია : მახასიათებლების ატრიბუცია და კვლევა დაგეხმარებათ იმის გარკვევაში, თუ რატომ .
-
ადამიანი მარყუჟში : ესკალაციის გზები ორაზროვანი ან მაღალი გავლენის მქონე გადაწყვეტილებებისთვის. [4], [5]
პრეფერენციებზე დაფუძნებული სწავლება ერთ-ერთი პრაგმატული გზაა ადამიანის განსჯის ჩართვისთვის, როდესაც მიზნები ბუნდოვანია. [5]
ხშირად დასმული კითხვები ერთ წუთში - სწრაფი რეაგირება ⚡
-
მაშ ასე, სინამდვილეში, როგორ სწავლობს ხელოვნური ინტელექტი? დანაკარგის საწინააღმდეგოდ განმეორებითი ოპტიმიზაციის გზით, გრადიენტებით, რომლებიც პარამეტრებს უკეთესი პროგნოზებისკენ წარმართავენ. [1], [2]
-
მეტი მონაცემი ყოველთვის გვეხმარება? როგორც წესი, შემოსავლების შემცირებამდე. მრავალფეროვნება ხშირად აჯობებს ნედლ მოცულობას. [1]
-
რა მოხდება, თუ ეტიკეტები არეული იქნება? გამოიყენეთ ხმაურისადმი მდგრადი მეთოდები, უკეთესი რუბრიკები და განიხილეთ წინასწარი ტრენინგის თვითკონტროლი. [1]
-
რატომ დომინირებენ ტრანსფორმატორები? ყურადღება კარგად იკვლევს და გრძელვადიან დამოკიდებულებებს აღიქვამს; ინსტრუმენტები უკვე მოწიფულია. [1], [2]
-
როგორ გავიგო, რომ ტრენინგი დავასრულე? ვალიდაციის დანაკარგები პლატოზე დგება, მეტრიკები სტაბილიზდება და ახალი მონაცემები მოსალოდნელის შესაბამისად იქცევა - შემდეგ კი ცვლის მონიტორინგი ხდება. [3], [4]
შედარების ცხრილი - ინსტრუმენტები, რომელთა გამოყენება დღესაც შეგიძლიათ 🧰
განგებ ოდნავ უცნაურია. ფასები ძირითადი ბიბლიოთეკებისთვისაა - ცხადია, მასშტაბურ ტრენინგს ინფრასტრუქტურული ხარჯები ახლავს თან.
| ინსტრუმენტი | საუკეთესოა | ფასი | რატომ მუშაობს კარგად |
|---|---|---|---|
| PyTorch | მკვლევარები, მშენებლები | უფასო - ღია src | დინამიური გრაფიკები, ძლიერი ეკოსისტემა, შესანიშნავი სახელმძღვანელოები. |
| ტენსორფლოუ | წარმოების გუნდები | უფასო - ღია src | ზრდასრულთა მომსახურება, TF Lite მობილურისთვის; დიდი საზოგადოება. |
| scit-learn | ცხრილური მონაცემები, საბაზისო ხაზები | უფასო | სუფთა API, სწრაფი იტერაცია, შესანიშნავი დოკუმენტაცია. |
| კერასი | სწრაფი პროტოტიპები | უფასო | მაღალი დონის API TF-ზე, წასაკითხი ფენები. |
| JAX | ძლიერი მომხმარებლები, კვლევა | უფასო | ავტოვექტორიზაცია, XLA სიჩქარე, ელეგანტური მათემატიკური ვიბრაციები. |
| ჩახუტებადი სახის ტრანსფორმერები | NLP, ხედვა, აუდიო | უფასო | წინასწარ მომზადებული მოდელები, მარტივი დახვეწა, შესანიშნავი ჰაბები. |
| ელვა | ტრენინგის სამუშაო პროცესები | თავისუფალი ბირთვი | სტრუქტურა, ჟურნალირება, მრავალი GPU-ს ელემენტი მოყვება. |
| XGBoost | ცხრილური კონკურენტუნარიანი | უფასო | ძლიერი საბაზისო ხაზები, ხშირად იმარჯვებს სტრუქტურირებულ მონაცემებზე. |
| წონა და მიკერძოებები | ექსპერიმენტის თვალყურის დევნება | უფასო იარუსი | განმეორებადობა, შედარების გაშვებები, უფრო სწრაფი სწავლის ციკლები. |
დასაწყისისთვის ავტორიტეტული დოკუმენტები: PyTorch, TensorFlow და მოწესრიგებული scikit-learn მომხმარებლის სახელმძღვანელო. (აირჩიეთ ერთი, შექმენით რაიმე პატარა, გაიმეორეთ.)
ღრმა ჩაძირვა: პრაქტიკული რჩევები, რომლებიც რეალურ დროს დაგიზოგავთ 🧭
-
სწავლის ტემპის გრაფიკები : კოსინუსების დაშლა ან ერთი ციკლი შეიძლება სტაბილიზაციას უწევდეს ვარჯიშს.
-
პარტიის ზომა : უფრო დიდი ყოველთვის უკეთესი არ არის - ყურადღება მიაქციეთ არა მხოლოდ გამტარუნარიანობას, არამედ ვალიდაციის მეტრიკებს.
-
წონის ინიციალიზაცია : თანამედროვე ნაგულისხმევი პარამეტრები კარგია; თუ ტრენინგი შეჩერდება, ხელახლა გადადით ინიციალიზაციაზე ან ნორმალიზება გაუკეთეთ ადრეულ ფენებს.
-
ნორმალიზაცია : პარტიის ნორმას ან ფენის ნორმას შეუძლია მნიშვნელოვნად გაამარტივოს ოპტიმიზაცია.
-
მონაცემთა გაფართოება : სურათებისთვის გადაბრუნება/ჩაჭრა/ფერის რხევა; ტექსტისთვის შენიღბვა/ტოკენების არევა.
-
შეცდომების ანალიზი : შეცდომების დაჯგუფება ერთი ნაჭრის კიდის მიხედვით შეიძლება ყველაფრის დაბლა დაწევას ნიშნავდეს.
-
რეპრო : თესლის დაყენება, ჰიპერპარამეტრების ჟურნალირება, საკონტროლო წერტილების შენახვა. გპირდებით, მომავალში მადლიერი იქნებით. [2], [3]
ეჭვის შემთხვევაში, გადახედეთ საფუძვლებს. კომპასი ფუნდამენტურ პრინციპებზე რჩება. [1], [2]
პაწაწინა მეტაფორა, რომელიც თითქმის მუშაობს 🪴
მოდელის წვრთნა მცენარის უცნაური საქშენით მორწყვას ჰგავს. ძალიან ბევრი წყალი - გუბე, ძალიან ცოტა - არასაკმარისი გვალვა. სწორი კადენცია, კარგი მონაცემებით მიღებული მზის შუქით და სუფთა ობიექტებით მიღებული საკვები ნივთიერებებით, და ზრდას მიაღწევ. დიახ, ოდნავ უხარისხოა, მაგრამ რჩება.
როგორ სწავლობს ხელოვნური ინტელექტი? ყველაფრის გაერთიანება 🧾
მოდელი შემთხვევით იწყება. გრადიენტზე დაფუძნებული განახლებების მეშვეობით, დანაკარგით ხელმძღვანელობით, ის თავის პარამეტრებს მონაცემებში არსებულ ნიმუშებს ასწორებს. ჩნდება წარმოდგენები, რომლებიც პროგნოზირებას აადვილებს. შეფასება გეუბნებათ, რეალურია თუ არა სწავლა და არა შემთხვევითი. ხოლო იტერაცია - უსაფრთხოებისთვის დამცავი ღობეებით - დემო ვერსიას საიმედო სისტემად აქცევს. ეს არის მთელი ისტორია, ნაკლები იდუმალი ვიბრაციით, ვიდრე თავიდან ჩანდა. [1]–[4]
დასკვნითი შენიშვნები - ძალიან გრძელია, არ წამიკითხავს 🎁
-
როგორ სწავლობს ხელოვნური ინტელექტი? გრადიენტების დანაკარგის მინიმიზაციით მრავალ მაგალითზე. [1], [2]
-
კარგი მონაცემები, მკაფიო მიზნები და სტაბილური ოპტიმიზაცია სწავლის პროცესს უფრო ეფექტურს ხდის. [1]–[3]
-
განზოგადება ყოველთვის დამახსოვრებას სჯობს. [1]
-
უსაფრთხოება, შეფასება და იტერაცია ჭკვიან იდეებს საიმედო პროდუქტებად აქცევს. [3], [4]
-
დაიწყეთ მარტივად, კარგად გაზომეთ და ეგზოტიკური არქიტექტურების ძიებამდე გააუმჯობესეთ მონაცემები მონაცემების გამოსწორებით. [2], [3]
ცნობები
-
გუდფელოუ, ბენჯიო, კურვილი - ღრმა სწავლება (უფასო ონლაინ ტექსტი). ბმული
-
სტენფორდის CS231n - ვიზუალური ამოცნობის კონვოლუციური ნეირონული ქსელები (კურსის ჩანაწერები და დავალებები). ბმული
-
Google - მანქანური სწავლების აჩქარებული კურსი: კლასიფიკაციის მეტრიკა (სიზუსტე, სიზუსტე, გახსენება, ROC/AUC) . ბმული
-
NIST - ხელოვნური ინტელექტის რისკების მართვის ჩარჩო (AI RMF 1.0) . ბმული
-
OpenAI - ადამიანის პრეფერენციებიდან სწავლა (პრეფერენციებზე დაფუძნებული ტრენინგის მიმოხილვა). ბმული