ხელოვნური ინტელექტის მოდელის შექმნა დრამატულად ჟღერს - თითქოს ფილმში მეცნიერი სინგულარულობებზე ბუტბუტებს - სანამ ერთხელ მაინც არ გააკეთებ. შემდეგ ხვდები, რომ ეს ნახევრად მონაცემთა დასუფთავების სამუშაოა, ნახევრად უაზრო სანტექნიკა და უცნაურად დამოკიდებულების მომგვრელი. ეს სახელმძღვანელო თავიდან ბოლომდე განმარტავს, თუ როგორ შევქმნათ ხელოვნური ინტელექტის მოდელი : მონაცემთა მომზადება, ტრენინგი, ტესტირება, დანერგვა და დიახ - მოსაწყენი, მაგრამ სასიცოცხლოდ მნიშვნელოვანი უსაფრთხოების შემოწმება. ჩვენ ვისაუბრებთ ჩვეულებრივ ტონზე, დეტალურად განვიხილავთ და ემოჯიებსაც შევინარჩუნებთ, რადგან, სიმართლე გითხრათ, რატომ უნდა იგრძნობოდეს ტექნიკური წერა გადასახადების გადახდას?
სტატიები, რომელთა წაკითხვაც შეიძლება მოგეწონოთ ამის შემდეგ:
🔗 რა არის ხელოვნური ინტელექტის არბიტრაჟი: სიმართლე პოპულარული სიტყვის მიღმა
განმარტავს ხელოვნური ინტელექტის არბიტრაჟს, მის რისკებს, შესაძლებლობებს და რეალურ სამყაროს შედეგებს.
🔗 რა არის ხელოვნური ინტელექტის ტრენერი?
მოიცავს ხელოვნური ინტელექტის ტრენერის როლს, უნარებსა და პასუხისმგებლობებს.
🔗 რა არის სიმბოლური ხელოვნური ინტელექტი: ყველაფერი, რაც უნდა იცოდეთ
აანალიზებს სიმბოლურ ხელოვნურ ინტელექტთან დაკავშირებულ კონცეფციებს, ისტორიას და პრაქტიკულ გამოყენებას.
რა ქმნის ხელოვნური ინტელექტის მოდელს - საფუძვლები ✅
„კარგი“ მოდელი არ არის ის, რომელიც თქვენს დეველოპერულ ბლოკნოტში 99%-იან სიზუსტეს აღწევს და შემდეგ წარმოებაში უხერხულ მდგომარეობაში აგდებს. ეს არის ის, რომელიც:
-
კარგად ჩამოყალიბებული → პრობლემა ნათელია, შემავალი/გამომავალი მონაცემები აშკარაა, მეტრიკა შეთანხმებულია.
-
მონაცემებით გულწრფელი → მონაცემთა ნაკრები რეალურად ასახავს არეულ-დარეულ რეალურ სამყაროს და არა გაფილტრულ სიზმრისეულ ვერსიას. გავრცელება ცნობილია, გაჟონვა დალუქულია, ეტიკეტები მიკვლევადია.
-
მყარი → მოდელი არ იშლება, თუ სვეტების თანმიმდევრობა იცვლება ან შეყვანის მონაცემები ოდნავ გადახრილია.
-
შეფასება ხდება გაგებით → რეალობასთან შესაბამისი მეტრიკები და არა ლიდერბორდის ამაოება. ROC AUC მაგრად გამოიყურება, მაგრამ ზოგჯერ F1 ან კალიბრაცია არის ის, რაც ბიზნესს აინტერესებს.
-
განლაგებადი → დასკვნის დროის პროგნოზირებადი, რესურსები საკმარისი, განლაგების შემდგომი მონიტორინგი ჩართულია.
-
პასუხისმგებლიანი → სამართლიანობის ტესტები, ინტერპრეტაციის შესაძლებლობა, ბოროტად გამოყენებისგან დამცავი ბარიერები [1].
ამ ბმულებზე დაჭერით, უკვე თითქმის ყველაფერი მზადაა. დანარჩენი უბრალოდ იტერაციაა... და ცოტაოდენი „ინტუიცია“. 🙂
მინი ომის ისტორია: თაღლითობის მოდელზე, საერთო ჯამში, F1 ბრწყინვალედ გამოიყურებოდა. შემდეგ გეოგრაფიული მდებარეობისა და „ბარათის არსებობისა და არარსებობის“ მიხედვით დავყავით. სიურპრიზი: ცრუ უარყოფითი შედეგები ერთ ნაწილში გაიზარდა. გაკვეთილი გამოვიყენეთ - ადრეული ჭრა, ხშირად ჭრა.
სწრაფი დაწყება: ხელოვნური ინტელექტის მოდელის შექმნის უმოკლესი გზა ⏱️
-
განსაზღვრეთ დავალება : კლასიფიკაცია, რეგრესია, რანჟირება, თანმიმდევრობის მარკირება, გენერირება, რეკომენდაცია.
-
მონაცემების შეკრება : შეგროვება, დუბლირება, სათანადოდ დაყოფა (დრო/ერთეული), დოკუმენტირება [1].
-
საწყისი : ყოველთვის დაიწყეთ მცირედით - ლოგისტიკური რეგრესია, პაწაწინა ხე [3].
-
აირჩიეთ მოდელების ოჯახი : ტაბულური → გრადიენტის გაძლიერება; ტექსტი → პატარა ტრანსფორმატორი; ხედვა → წინასწარ მომზადებული CNN ან ხერხემალი [3][5].
-
სასწავლო ციკლი : ოპტიმიზატორი + ადრეული გაჩერება; დანაკარგის და ვალიდაციის თვალყურის დევნება [4].
-
შეფასება : ჯვარედინი ვალიდაცია, შეცდომების ანალიზი, ტესტირება ცვლის დროს.
-
პაკეტი : წონის შენახვა, წინასწარი პროცესორები, API შეფუთვა [2].
-
მონიტორი : საათის დრიფტი, შეყოვნება, სიზუსტის კლება [2].
ქაღალდზე მოწესრიგებულად გამოიყურება. პრაქტიკაში კი - არეულ-დარეული. და ეს ნორმალურია.
შედარების ცხრილი: ინსტრუმენტები, თუ როგორ შევქმნათ ხელოვნური ინტელექტის მოდელი 🛠️
| ინსტრუმენტი / ბიბლიოთეკა | საუკეთესოა | ფასი | რატომ მუშაობს ეს (შენიშვნები) |
|---|---|---|---|
| scit-learn | ტაბულური, საბაზისო ხაზები | უფასო - OSS | სუფთა API, სწრაფი ექსპერიმენტები; მაინც იმარჯვებს კლასიკურ თამაშებში [3]. |
| PyTorch | ღრმა სწავლა | უფასო - OSS | დინამიური, ადვილად წასაკითხი, უზარმაზარი საზოგადოება [4]. |
| TensorFlow + Keras | წარმოების მონაცემთა ბაზა | უფასო - OSS | კერასისთვის მოსახერხებელი; TF სერვინინგი განლაგებას აადვილებს. |
| JAX + სელი | კვლევა + სიჩქარე | უფასო - OSS | ავტომატური დიფერენციალი + XLA = მუშაობის გაუმჯობესება. |
| ჩახუტებადი სახის ტრანსფორმერები | NLP, CV, აუდიო | უფასო - OSS | წინასწარ მომზადებული მოდელები + მილსადენები... შეფ-მზარეულის კოცნა [5]. |
| XGBoost/LightGBM | ტაბულური დომინირება | უფასო - OSS | ხშირად აჯობებს DL-ს მოკრძალებულ მონაცემთა ნაკრებებში. |
| სწრაფი ხელოვნური ინტელექტი | მეგობრული DL | უფასო - OSS | მაღალი დონის, მიმტევებელი დეფოლტები. |
| Cloud AutoML (სხვადასხვა) | კოდის არარსებობა/დაბალი კოდი | გამოყენებაზე დაფუძნებული $ | გადათრევა, ჩაშვება, განლაგება; გასაოცრად მყარი. |
| ONNX-ის გაშვების დრო | დასკვნის სიჩქარე | უფასო - OSS | ოპტიმიზებული მომსახურება, Edge-ისთვის მოსახერხებელი. |
დოკუმენტები, რომლებსაც ხელახლა გახსნით: scikit-learn [3], PyTorch [4], Hugging Face [5].
ნაბიჯი 1 - პრობლემა მეცნიერის მსგავსად ჩამოაყალიბეთ და არა გმირის მსგავსად 🎯
კოდის დაწერამდე ხმამაღლა თქვით შემდეგი: რა გადაწყვეტილებას მოგვცემს ეს მოდელი? თუ ეს ბუნდოვანია, მონაცემთა ნაკრები უარესი იქნება.
-
პროგნოზირების სამიზნე → ერთი სვეტი, ერთი განმარტება. მაგალითი: გაცვლა 30 დღის განმავლობაში?
-
დეტალიზაცია → მომხმარებელზე, სესიაზე, ერთეულზე - არ აურიოთ. გაჟონვის რისკი მკვეთრად იზრდება.
-
შეზღუდვები → შეყოვნება, მეხსიერება, კონფიდენციალურობა, Edge vs სერვერი.
-
წარმატების მეტრიკა → ერთი პრაიმერი + რამდენიმე მცველი. დაუბალანსებელი კლასები? გამოიყენეთ AUPRC + F1. რეგრესია? MAE-ს შეუძლია RMSE-ს აჯობოს, როდესაც მედიანებს მნიშვნელობა აქვს.
რჩევა Battle-დან: ჩაწერეთ ეს შეზღუდვები + მეტრიკა README-ის პირველ გვერდზე. ინახავს მომავალ არგუმენტებს, როდესაც შესრულება და შეყოვნება ერთმანეთს ეჯახება.
ნაბიჯი 2 - მონაცემთა შეგროვება, გაწმენდა და გაყოფა, რომელიც რეალურად გაძლებს 🧹📦
მონაცემები მოდელია. თქვენ ეს იცით. მიუხედავად ამისა, ნაკლოვანებები:
-
წარმომავლობა → საიდან მოდის, ვის ეკუთვნის და რა პოლისით [1].
-
ეტიკეტები → მკაცრი მითითებები, ანოტატორებს შორის შემოწმება, აუდიტი.
-
დუბლირების გაუქმება → ფარული დუბლიკატები ზრდიან მეტრიკას.
-
დაყოფა → შემთხვევითი ყოველთვის სწორი არ არის. პროგნოზირებისთვის გამოიყენეთ დროზე დაფუძნებული, ხოლო მომხმარებლის მიერ ინფორმაციის გაჟონვის თავიდან ასაცილებლად - ერთეულებზე დაფუძნებული.
-
გაჟონვა → ვარჯიშის დროს მომავალში ჩახედვა არ არის შესაძლებელი.
-
დოკუმენტები → დაწერეთ სწრაფი მონაცემთა ბარათი სქემით, კოლექციით, გადახრებით [1].
რიტუალი: შეუფერხებელი ტესტის ნაკრების საბოლოო დასრულებამდე გადადება
ნაბიჯი 3 - პირველ რიგში საბაზისო ეტაპები: მოკრძალებული მოდელი, რომელიც თვეებს ზოგავს 🧪
საბაზისო ხაზები მომხიბვლელი არ არის, მაგრამ ისინი მოლოდინებს ამართლებენ.
-
ტაბულური → scikit-learn LogisticRegression ან RandomForest, შემდეგ XGBoost/LightGBM [3].
-
ტექსტი → TF-IDF + წრფივი კლასიფიკატორი. ტრანსფორმატორების გამოყენებამდე სანდოობის შემოწმება.
-
მხედველობა → პაწაწინა CNN ან წინასწარ გაწვრთნილი ხერხემალი, გაყინული ფენები.
თუ თქვენი ღრმა ბადე საბაზისო ხაზს ძლივს აჭარბებს, ისუნთქეთ. ზოგჯერ სიგნალი უბრალოდ ძლიერი არ არის.
ნაბიჯი 4 - აირჩიეთ მოდელირების მიდგომა, რომელიც მონაცემებს შეესაბამება 🍱
ტაბულური
გრადიენტის გაძლიერება პირველ რიგში - საოცრად ეფექტური. ფუნქციების ინჟინერია (ურთიერთქმედება, კოდირება) კვლავ მნიშვნელოვანია.
ტექსტი
წინასწარ მომზადებული ტრანსფორმატორები მსუბუქი დახვეწის შესაძლებლობით. გამოხდილი მოდელი, თუ შეყოვნებას მნიშვნელობა აქვს [5]. ტოკენიზატორებიც მნიშვნელოვანია. სწრაფი გამარჯვებისთვის: HF მილსადენები.
სურათები
დაიწყეთ წინასწარ გაწვრთნილი ხერხემლით + თავის დახვეწის რეგულირებით. რეალისტურად გაზარდეთ (აბრუნება, ამოჭრა, რხევა). მცირე მონაცემების შემთხვევაში, გამოიყენეთ მცირე გასროლის ან წრფივი ზონდები.
დროის სერიები
საბაზისო მაჩვენებლები: შეფერხების მახასიათებლები, მოძრავი საშუალოები. ძველი სკოლის ARIMA vs თანამედროვე გაძლიერებული ხეები. ვალიდაციისას ყოველთვის დაიცავით დროის თანმიმდევრობა.
ცერული წესი: პატარა, სტაბილური მოდელი > ზედმეტად მორგებული მონსტრი.
ნაბიჯი 5 - სავარჯიშო ციკლი, მაგრამ ზედმეტად ნუ გაართულებთ 🔁
ყველაფერი რაც გჭირდებათ: მონაცემთა ჩამტვირთავი, მოდელი, მონაცემთა დაკარგვის პროგრამა, ოპტიმიზატორი, დამგეგმავი, ჟურნალირება. მზადაა.
-
ოპტიმიზატორები : Adam ან SGD იმპულსით. ზედმეტად ნუ შეცვლით.
-
პარტიის ზომა : მოწყობილობის მეხსიერების მაქსიმიზაცია გადატვირთვის გარეშე.
-
რეგულარიზაცია : სწავლის შეწყვეტა, წონის დაკლება, ნაადრევი შეწყვეტა.
-
შერეული სიზუსტე : სიჩქარის უზარმაზარი ზრდა; თანამედროვე ჩარჩოები ამარტივებს ამას [4].
-
განმეორებადობა : თესლის დადება. ის მაინც ირხევა. ეს ნორმალურია.
კანონიკური შაბლონებისთვის იხილეთ PyTorch-ის სახელმძღვანელოები [4].
ნაბიჯი 6 - შეფასება, რომელიც ასახავს რეალობას და არა ლიდერბორდის ქულებს 🧭
შეამოწმეთ ნაჭრები, არა მხოლოდ საშუალოები:
-
კალიბრაცია → ალბათობებს რაღაც უნდა ნიშნავდეს. სანდოობის დიაგრამები გვეხმარება.
-
დაბნეულობის შესახებ ინფორმაცია → ზღურბლის მრუდები, ხილული კომპრომისები.
-
შეცდომების თაიგულები → დაყოფილია რეგიონის, მოწყობილობის, ენის, დროის მიხედვით. სუსტი მხარეების აღმოჩენა.
-
მდგრადობა → ტესტირება ცვლების, შემაწუხებელი შეყვანების დროს.
-
ადამიანი-ინ-ციკლში → თუ ადამიანები იყენებენ მას, შეამოწმეთ გამოყენებადობა.
მოკლე ანეკდოტი: ერთი ჩავარდნა გამოწვეული იყო უნიკოდის ნორმალიზაციის შეუსაბამობით ტრენინგსა და წარმოებას შორის. ღირებულება? 4 სრული ქულა.
ნაბიჯი 7 - შეფუთვა, მირთმევა და MLOps ცრემლების გარეშე 🚚
სწორედ აქ ირღვევა პროექტების გეგმები ხშირად.
-
არტეფაქტები : მოდელის წონები, წინასწარი პროცესორები, კომიტი ჰეში.
-
Env : pin ვერსიები, კონტეინერიზაცია lean.
-
ინტერფეისი : REST/gRPC
/health+/predict-ით. -
შეყოვნება/გამტარუნარიანობა : პარტიული მოთხოვნები, გახურების მოდელები.
-
აპარატურა : კლასიკურ მოდელებზე პროცესორი კარგია; DL-ზე - გრაფიკული პროცესორები. ONNX Runtime ზრდის სიჩქარეს/პორტაბელურობას.
სრული ვერსიისთვის (CI/CD/CT, მონიტორინგი, გაუქმება), Google-ის MLOps დოკუმენტები მყარია [2].
ნაბიჯი 8 - მონიტორინგი, დრიფტი და გადამზადება პანიკის გარეშე 📈🧭
მოდელები იშლება. მომხმარებლები ვითარდებიან. მონაცემთა მილსადენები არასწორად მუშაობს.
-
მონაცემთა შემოწმება : სქემა, დიაპაზონები, ნულები.
-
პროგნოზები : განაწილებები, დრიფტის მეტრიკები, გამონაკლისები.
-
შესრულება : ეტიკეტების მიღების შემდეგ, გამოთვალეთ მეტრიკა.
-
შეტყობინებები : შეყოვნება, შეცდომები, დრიფტი.
-
კადენციის გადამზადება : ტრიგერზე დაფუძნებული > კალენდარზე დაფუძნებული.
ციკლის დოკუმენტირება. ვიკი „ტომობრივ მეხსიერებას“ სჯობს. იხილეთ Google CT-ის სახელმძღვანელოები [2].
პასუხისმგებლიანი ხელოვნური ინტელექტი: სამართლიანობა, კონფიდენციალურობა, ინტერპრეტაციის სიმარტივე 🧩🧠
თუ ადამიანები დაზარალდნენ, პასუხისმგებლობა არჩევითი არ არის.
-
სამართლიანობის ტესტები → შეაფასეთ მგრძნობიარე ჯგუფებს შორის, შეამცირეთ ხარვეზები [1].
-
ინტერპრეტაცია → SHAP ცხრილურისთვის, ატრიბუცია სიღრმისთვის. სიფრთხილით მოეპყარით.
-
კონფიდენციალურობა/უსაფრთხოება → პირადი ინფორმაციის მინიმუმამდე დაყვანა, ანონიმიზაცია, ფუნქციების დაბლოკვა.
-
პოლიტიკა → ჩაწერეთ განკუთვნილი და აკრძალული გამოყენების წესები. გიშველით მოგვიანებით ტკივილს [1].
მოკლე მინი-ინსტრუქცია 🧑🍳
დავუშვათ, რომ ჩვენ ვახდენთ მიმოხილვების კლასიფიკაციას: დადებითი და უარყოფითი.
-
მონაცემები → მიმოხილვების შეგროვება, დუბლიკატების გაშიფვრა, დროის მიხედვით დაყოფა [1].
-
საბაზისო → TF-IDF + ლოგისტიკური რეგრესია (scikit-learn) [3].
-
განახლება → პატარა წინასწარ მომზადებული ტრანსფორმატორი მომრგვალებული ზედაპირით [5].
-
მატარებელი → რამდენიმე ეპოქა, ადრეული გაჩერება, ლიანდაგი F1 [4].
-
შეფასება → დაბნეულობის მატრიცა, სიზუსტე@გახსენება, კალიბრაცია.
-
პაკეტი → ტოკენიზატორი + მოდელი, FastAPI შეფუთვა [2].
-
მონიტორი → დააკვირდით კატეგორიებს შორის გადახრას [2].
-
პასუხისმგებლიანი ცვლილებები → პირადი ინფორმაციის ფილტრი, მგრძნობიარე მონაცემების პატივისცემა [1].
მოკლე შეყოვნება? მოდელის დისტილაცია თუ ONNX-ში ექსპორტი.
გავრცელებული შეცდომები, რომლებიც მოდელებს ჭკვიანურად აჩენს, მაგრამ სულელურად იქცევიან 🙃
-
გაჟონილი მახასიათებლები (მოვლენის შემდგომი მონაცემები მატარებელში).
-
არასწორი მეტრიკა (AUC, როდესაც გუნდს გახსენება აინტერესებს).
-
პაწაწინა ვალ კომპლექტი (ხმაურიანი „გარღვევები“).
-
კლასობრივი დისბალანსი იგნორირებულია.
-
შეუსაბამო წინასწარი დამუშავება (გაწვრთნა vs. მომსახურება).
-
ძალიან ადრე ზედმეტად პერსონალიზაცია.
-
შეზღუდვების დავიწყება (გიგანტური მოდელი მობილურ აპლიკაციაში).
ოპტიმიზაციის ხრიკები 🔧
-
დაამატეთ უფრო ჭკვიანი მონაცემები: მკაცრი ნეგატივები, რეალისტური დამატება.
-
უფრო რთული რეგულარიზაცია: გამოტოვებული, უფრო პატარა მოდელები.
-
სწავლის ტემპის გრაფიკები (კოსინუსი/ნაბიჯი).
-
პარტიული წმენდა - უფრო დიდი ყოველთვის უკეთესი არ არის.
-
შერეული სიზუსტე + ვექტორიზაცია სიჩქარისთვის [4].
-
კვანტიზაცია, სუსტ მოდელებამდე შემცირება.
-
ქეშის ჩაშენებები/წინასწარ გამოთვლითი მძიმე ოპერაციები.
მონაცემთა ეტიკეტირება, რომელიც არ იშლება 🏷️
-
მითითებები: დეტალური, კიდეების ჩარჩოებით.
-
ეტიკეტირების მატარებლები: კალიბრაციის ამოცანები, შეთანხმების შემოწმება.
-
ხარისხი: ოქროს კომპლექტები, ადგილზე შემოწმება.
-
ინსტრუმენტები: ვერსიიზებული მონაცემთა ნაკრებები, ექსპორტირებადი სქემები.
-
ეთიკა: სამართლიანი ანაზღაურება, პასუხისმგებლიანი მომარაგება. წერტილი [1].
განლაგების ნიმუშები 🚀
-
პარტიული ქულების აღება → ღამის სამუშაოები, საწყობი.
-
რეალურ დროში მიკროსერვისი → სინქრონიზაციის API, ქეშირების დამატება.
-
სტრიმინგი → მოვლენებზე დაფუძნებული, მაგ., თაღლითობა.
-
Edge → შეკუმშვა, სატესტო მოწყობილობები, ONNX/TensorRT.
შეინახეთ Runbook: გაუქმების ნაბიჯები, არტეფაქტების აღდგენა [2].
რესურსები, რომლებიც თქვენს დროს ღირს 📚
-
საფუძვლები: scikit-learn-ის მომხმარებლის სახელმძღვანელო [3]
-
DL შაბლონები: PyTorch-ის სახელმძღვანელოები [4]
-
სწავლის ტრანსფერი: ჩახუტების სწრაფი დაწყება სახისთვის [5]
-
მმართველობა/რისკი: NIST AI RMF [1]
-
MLOps: Google Cloud-ის სახელმძღვანელოები [2]
ხშირად დასმული კითხვები 💡
-
გჭირდებათ გრაფიკული პროცესორი? Tabular-ისთვის არა. DL-ისთვის კი (ღრუბლოვანი გაქირავება მუშაობს).
-
საკმარისი მონაცემები? მეტის დამატება საკმარისია, სანამ ეტიკეტები ხმაურს არ დაიწყებს. დაიწყეთ მცირედით, გაიმეორეთ.
-
მეტრიკის არჩევანი? ერთადერთი შესაბამისი გადაწყვეტილება ღირს. ჩაწერეთ მატრიცა.
-
საბაზისო დონის გამოტოვება? შეგიძლიათ... ისევე, როგორც შეგიძლიათ საუზმე გამოტოვოთ და ინანო.
-
AutoML? შესანიშნავია ბუტსტრეპინგისთვის. მაინც ჩაატარეთ საკუთარი აუდიტები [2].
ოდნავ ბუნდოვანი სიმართლე 🎬
ხელოვნური ინტელექტის მოდელის შექმნის პროცესი ნაკლებად ეხება ეგზოტიკურ მათემატიკას და უფრო მეტად ხელოსნობას: მკვეთრი ჩარჩოები, სუფთა მონაცემები, საწყისი სიზუსტის შემოწმება, მყარი შეფასება, განმეორებადი იტერაცია. დაამატეთ პასუხისმგებლობა, რათა მომავალმა „თქვენმა“ არ მოაგვაროს თავიდან აცილებადი არეულობები [1][2].
სიმართლე ისაა, რომ „მოსაწყენი“ ვერსია - მკაცრი და მეთოდური - ხშირად აჯობებს პარასკევს, დილის 2 საათზე აჩქარებულ თვალშისაცემი მოდელის ცდას. და თუ პირველივე ცდაზე უხერხულად მოგეჩვენებათ? ეს ნორმალურია. მოდელები ხაჭაპურის სასტარტო კერძებს ჰგვანან: აჭამეთ, დააკვირდით, ზოგჯერ თავიდან დაიწყეთ. 🥖🤷
TL;DR
-
ჩარჩოს პრობლემა + მეტრიკა; გაჟონვის აღმოფხვრა.
-
პირველ რიგში, საბაზისო; მარტივი ხელსაწყოები შესანიშნავია.
-
წინასწარ გაწვრთნილი მოდელები გეხმარებიან - ნუ სცემთ თაყვანს მათ.
-
ნაჭრების შეფასება; კალიბრაცია.
-
MLOps-ის საფუძვლები: ვერსიონირება, მონიტორინგი, უკან დაბრუნება.
-
პასუხისმგებლიანი ხელოვნური ინტელექტი, ჩანერგილი და არა ჭანჭიკებით დამაგრებული.
-
გაიმეორეთ, გაიღიმეთ - თქვენ შექმენით ხელოვნური ინტელექტის მოდელი. 😄
ცნობები
-
NIST — ხელოვნური ინტელექტის რისკების მართვის ჩარჩო (AI RMF 1.0) . ბმული
-
Google Cloud — MLOps: უწყვეტი მიწოდებისა და ავტომატიზაციის არხები მანქანურ სწავლებაში . ბმული
-
scikit-learn — მომხმარებლის სახელმძღვანელო . ბმული
-
PyTorch — ოფიციალური სახელმძღვანელოები . ბმული
-
ჩახუტებადი სახე — ტრანსფორმერების სწრაფი დაწყება . ბმული