როგორ მუშაობს ხელოვნური ინტელექტი?

როგორ მუშაობს ხელოვნური ინტელექტი?

ხელოვნური ინტელექტი შეიძლება ჯადოსნურ ხრიკს ჰგავდეს, რომელსაც ყველა თავს ახვევს და ჩუმად ფიქრობს... მოიცადეთ, როგორ მუშაობს ეს სინამდვილეში ? კარგი ამბავია. ჩვენ ყველაფერს უპრობლემოდ ავხსნით, პრაქტიკულები ვიქნებით და რამდენიმე არასრულყოფილ ანალოგიას დავამატებთ, რომლებიც მაინც მიმზიდველს გახდის. თუ მხოლოდ არსის გაგება გსურთ, გადადით ქვემოთ მოცემულ ერთწუთიან პასუხზე; მაგრამ სიმართლე გითხრათ, დეტალებია ის, სადაც ნათურა ანათებს 💡.

სტატიები, რომელთა წაკითხვაც შეიძლება მოგეწონოთ ამის შემდეგ:

🔗 რას ნიშნავს GPT?
GPT აბრევიატურის და მისი მნიშვნელობის მოკლე ახსნა.

🔗 საიდან იღებს ხელოვნური ინტელექტი ინფორმაციას
წყაროები, რომლებსაც ხელოვნური ინტელექტი იყენებს სწავლისთვის, ტრენინგისთვის და კითხვებზე პასუხის გასაცემად.

🔗 როგორ ჩართოთ ხელოვნური ინტელექტი თქვენს ბიზნესში
პრაქტიკული ნაბიჯები, ინსტრუმენტები და სამუშაო პროცესები ხელოვნური ინტელექტის ეფექტურად ინტეგრირებისთვის.

🔗 როგორ დავიწყოთ ხელოვნური ინტელექტის კომპანია
იდეიდან გაშვებამდე: დადასტურება, დაფინანსება, გუნდი და განხორციელება.


როგორ მუშაობს ხელოვნური ინტელექტი? ერთწუთიანი პასუხი ⏱️

ხელოვნური ინტელექტი მონაცემებიდან სწავლობს ნიმუშებს პროგნოზების გასაკეთებლად ან შინაარსის გენერირებისთვის - ხელით დაწერილი წესების გარეშე. სისტემა შთანთქავს მაგალითებს, ზომავს მის მცდარობას დანაკარგის ფუნქციის მეშვეობით და უბიძგებს თავის შიდა ღილაკებს - პარამეტრებს - ყოველ ჯერზე ცოტა ნაკლები მცდარი იყოს. გამორეცხეთ, გაიმეორეთ, გააუმჯობესეთ. საკმარისი ციკლებით, ის სასარგებლო ხდება. იგივე ამბავია, ელფოსტის კლასიფიკაციას ახდენთ, სიმსივნეების აღმოჩენას, სამაგიდო თამაშებს თამაშობთ თუ ჰაიკუებს წერთ. „მანქანური სწავლების“ მარტივი ენის საფუძვლისთვის, IBM-ის მიმოხილვა მყარია [1].

თანამედროვე ხელოვნური ინტელექტის უმეტესობა მანქანური სწავლებაა. მარტივი ვერსია: მონაცემების შეყვანა, შეყვანიდან გამოსავალზე შესაბამისობის შესწავლა და შემდეგ ახალ მონაცემებზე გადატანა. არა მაგია-მათემატიკა, გამოთვლები და, სიმართლე გითხრათ, ხელოვნების მცირედი ნაწილი.


„როგორ მუშაობს ხელოვნური ინტელექტი?“ ✅

როდესაც ადამიანები Google-ში ეძებენ ინფორმაციას იმის შესახებ, თუ როგორ მუშაობს ხელოვნური ინტელექტი?, ისინი, როგორც წესი, ეძებენ შემდეგ რჩევებს:

  • მრავალჯერადი გამოყენების გონებრივი მოდელი, რომელსაც ენდობა

  • ძირითადი სწავლების ტიპების რუკა, რათა ჟარგონი აღარ იყოს საშიში

  • ნეირონული ქსელების შიგნით ჩახედვა დაკარგვის გარეშე

  • რატომ მართავენ ტრანსფორმერები ახლა მსოფლიოს

  • პრაქტიკული გზა მონაცემებიდან განლაგებამდე

  • სწრაფი შედარების ცხრილი, რომლის ეკრანის ანაბეჭდიც შეგიძლიათ და შეინახოთ

  • ეთიკის, მიკერძოებისა და სანდოობის დამცავი ბარიერები, რომლებიც არ არის ცვალებადი

აი, რას წააწყდები აქ. თუ ხეტიალს ვაპირებ, ეს განზრახ მოხდება - თითქოს თვალწარმტაცი მარშრუტით ვივლი და შემდეგ ჯერზე ქუჩები უკეთ დამახსოვრება. 🗺️


ხელოვნური ინტელექტის სისტემების უმეტესობის ძირითადი ინგრედიენტები 🧪

წარმოიდგინეთ ხელოვნური ინტელექტის სისტემა, როგორც სამზარეულო. ოთხი ინგრედიენტი ისევ და ისევ ჩნდება:

  1. მონაცემები — მაგალითები წარწერებით ან მათ გარეშე.

  2. მოდელი — მათემატიკური ფუნქცია რეგულირებადი პარამეტრებით.

  3. მიზანი — დანაკარგის ფუნქცია, რომელიც ზომავს, თუ რამდენად არასწორია ვარაუდები.

  4. ოპტიმიზაცია — ალგორითმი, რომელიც პარამეტრებს ცვლის დანაკარგის შესამცირებლად.

ღრმა სწავლებისას, ეს ბიძგი, როგორც წესი, გრადიენტული დაღმართია უკუგავრცელებით - ეფექტური გზა იმის გასარკვევად, თუ გიგანტურ რეზონერბორდზე რომელმა ღილაკმა წრიპინა და შემდეგ ოდნავ შეამციროთ მისი სიჩქარე [2].

მინი-მაგალითი: ჩვენ შევცვალეთ მყიფე წესებზე დაფუძნებული სპამის ფილტრი მცირე, ზედამხედველობითი მოდელით. ერთკვირიანი label → measure → update ციკლების შემდეგ, ცრუ დადებითი შედეგები და დახმარების ბილეთები გაქრა. არაფერი განსაკუთრებული - უბრალოდ უფრო სუფთა მიზნები (სიზუსტე „მომხმარებლის“ ელფოსტებზე) და უკეთესი ოპტიმიზაცია.


სწავლის პარადიგმები ერთი შეხედვით 🎓

  • ზედამხედველობითი სწავლება
    თქვენ გვაწვდით შეყვანისა და გამოყვანის წყვილებს (ფოტოები ეტიკეტებით, ელფოსტები, რომლებიც მონიშნულია როგორც სპამი/არასპამი). მოდელი სწავლობს შეყვანას → გამომავალს. მრავალი პრაქტიკული სისტემის ხერხემალი [1].

  • ზედამხედველობის გარეშე სწავლა
    . ეტიკეტების გარეშე. იპოვეთ სტრუქტურული კლასტერები, შეკუმშვები, ლატენტური ფაქტორები. შესანიშნავია კვლევის ან წინასწარი ტრენინგისთვის.

  • თვითკონტროლირებადი სწავლება
    მოდელი ქმნის საკუთარ იარლიყებს (იწინასწარმეტყველებს შემდეგ სიტყვას, დაკარგული გამოსახულების პატჩს). ნედლ მონაცემებს მასშტაბურ სასწავლო სიგნალად გარდაქმნის; საფუძვლად უდევს თანამედროვე ენობრივ და ხედვის მოდელებს.

  • გაძლიერებული სწავლება
    აგენტი მოქმედებს, აგროვებს ჯილდოებს და სწავლობს პოლიტიკას, რომელიც მაქსიმალურად ზრდის კუმულაციურ ჯილდოს. თუ „ღირებულების ფუნქციები“, „პოლიტიკა“ და „დროებითი განსხვავებების სწავლება“ ზარს რეკავს - ეს მათი სახლია [5].

დიახ, პრაქტიკაში კატეგორიები ბუნდოვანია. ჰიბრიდული მეთოდები ნორმალურია. რეალური ცხოვრება არეულია; კარგი ინჟინერია მას იქ ხვდება, სადაც არის.


ნეირონული ქსელის შიგნით თავის ტკივილის გარეშე 🧠

ნეირონული ქსელი პაწაწინა მათემატიკური ერთეულების (ნეირონების) ფენებს აერთიანებს. თითოეული ფენა შემავალ მონაცემებს წონებით, გადახრებით და ისეთი რბილი არაწრფივობით გარდაქმნის, როგორიცაა ReLU ან GELU. ადრეული ფენები მარტივ მახასიათებლებს სწავლობენ; უფრო ღრმა ფენები აბსტრაქციებს აკოდირებენ. „მაგია“ - თუ მას ასე შეგვიძლია ვუწოდოთ - კომპოზიციაა : მცირე ფუნქციების ჯაჭვით შეერთება და თქვენ შეგიძლიათ ძალიან რთული ფენომენების მოდელირება.

სავარჯიშო ციკლი, მხოლოდ ვიბრაციები:

  • გამოცნობა → გაზომვის შეცდომა → ატრიბუტის ბრალეულობა backprop-ის საშუალებით → წონების ბიძგი → გამეორება.

გააკეთეთ ეს ჯგუფურად და, როგორც მოუხერხებელი მოცეკვავე, რომელიც თითოეულ სიმღერას აუმჯობესებს, მოდელი შეწყვეტს თქვენს ფეხის წვერებზე დადგომას. მეგობრული, მკაცრი ფონის რეკვიზიტის თავისთვის იხილეთ [2].


რატომ დაიპყრეს ტრანსფორმერებმა ძალაუფლება და რას ნიშნავს სინამდვილეში „ყურადღება“ 🧲

ტრანსფორმერები იყენებენ თვითყურადღებას , რათა ერთდროულად შეაფასონ შეყვანილი ინფორმაციის რომელი ნაწილებია მნიშვნელოვანი ერთმანეთისთვის. ძველი მოდელების მსგავსად, წინადადების მკაცრად მარცხნიდან მარჯვნივ წაკითხვის ნაცვლად, ტრანსფორმერს შეუძლია ყველგან მიმოიხედოს და დინამიურად შეაფასოს ურთიერთობები - მაგალითად, გადატვირთული ოთახის სკანირებისას იმის სანახავად, თუ ვინ ვის ელაპარაკება.

ამ დიზაინმა თანმიმდევრობის მოდელირებისთვის უარი თქვა რეკურენტულობასა და კონვოლუციაზე, რამაც შესაძლებელი გახადა მასიური პარალელიზმი და შესანიშნავი მასშტაბირება. ნაშრომი, რომელმაც ეს დაიწყო - ყურადღება ყველაფერია, რაც შენ გჭირდებათ - ასახავს არქიტექტურას და შედეგებს [3].

თვითყურადღება ერთ ხაზში: შექმენით მოთხოვნის , გასაღების და მნიშვნელობის ვექტორები თითოეული ტოკენისთვის; გამოთვალეთ მსგავსებები ყურადღების წონების მისაღებად; შესაბამისად შეურიეთ მნიშვნელობები. დეტალებში დახვეწილი, სულისკვეთებით ელეგანტური.

გაფრთხილება: ტრანსფორმერები დომინირებენ და არა მონოპოლიზაციას ინარჩუნებენ. CNN-ები, RNN-ები და ხისებური ანსამბლები მაინც იმარჯვებენ გარკვეული მონაცემთა ტიპებისა და შეყოვნების/ღირებულების შეზღუდვების მხრივ. აირჩიეთ არქიტექტურა, რომელიც თქვენს საქმეს შეესაბამება და არა აჟიოტაჟი.


როგორ მუშაობს ხელოვნური ინტელექტი? პრაქტიკული არხი, რომელსაც რეალურად გამოიყენებთ 🛠️

  1. პრობლემის ჩამოყალიბება
    რას წინასწარმეტყველებთ ან ქმნით და როგორ გაიზომება წარმატება?

  2. მონაცემების
    შეგროვება, საჭიროების შემთხვევაში, ეტიკეტირება, გაწმენდა და გაყოფა. მოერიდეთ გამოტოვებულ მნიშვნელობებს და კიდისებრ შემთხვევებს.

  3. მოდელირება
    იწყება მარტივად. საბაზისო ხაზები (ლოგისტიკური რეგრესია, გრადიენტის გაძლიერება ან პატარა ტრანსფორმატორი) ხშირად აჯობებს გმირულ სირთულეს.

  4. ტრენინგი -
    მიზნის არჩევა, ოპტიმიზატორის არჩევა, ჰიპერპარამეტრების დაყენება. იტერაცია.

  5. შეფასება
    გამოიყენეთ შეკავების მეთოდები, ჯვარედინი ვალიდაცია და თქვენს რეალურ მიზანთან დაკავშირებული მეტრიკები (სიზუსტე, F1, AUROC, BLEU, დაბნეულობა, შეყოვნება).

  6. განლაგება:
    API-ს მიღმა მომსახურება ან აპლიკაციაში ჩაშენება. შეყოვნების, ღირებულების, გამტარუნარიანობის თვალყურის დევნება.

  7. მონიტორინგი და მმართველობა.
    აკონტროლეთ ცვალებადობა, სამართლიანობა, სიმტკიცე და უსაფრთხოება. NIST-ის ხელოვნური ინტელექტის რისკების მართვის ჩარჩო (GOVERN, MAP, MEASURE, MANAGE) წარმოადგენს სანდო სისტემების პრაქტიკულ საკონტროლო სიას ყოვლისმომცველი მასშტაბით [4].

მინი-მაგალითი: ხედვის მოდელმა ლაბორატორიაში წარმატებით ჩააბარა ტესტი, შემდეგ კი განათების შეცვლისას ველზე შეცდომა დაუშვა. შეყვანის ჰისტოგრამებში დროშისებრი გადახრის მონიტორინგი; სწრაფი გაფართოება + დახვეწა აღადგენს მუშაობას. მოსაწყენია? კი. ეფექტური? ასევე კი.


შედარების ცხრილი - მიდგომები, ვისთვის არიან ისინი განკუთვნილი, სავარაუდო ღირებულება, რატომ მუშაობენ ისინი 📊

განზრახ არასრულყოფილია: ოდნავ არათანაბარი ფრაზირება მას ადამიანურ შეგრძნებას სძენს.

მიდგომა იდეალური აუდიტორია ფასის მსგავსი რატომ მუშაობს / შენიშვნები
ზედამხედველობითი სწავლება ანალიტიკოსები, პროდუქტის გუნდები დაბალი-საშუალო პირდაპირი შესაბამისობის შეყვანა → ეტიკეტი. შესანიშნავია, როდესაც ეტიკეტები არსებობს; წარმოადგენს მრავალი დანერგილი სისტემის ხერხემალს [1].
ზედამხედველობის გარეშე მონაცემთა მკვლევარები, კვლევა და განვითარება დაბალი პოულობს კლასტერებს/შეკუმშვებს/ლატენტურ ფაქტორებს - კარგია აღმოჩენისა და წინასწარი ტრენინგისთვის.
თვითკონტროლის ქვეშ პლატფორმის გუნდები საშუალო გამოთვლებისა და მონაცემების გამოყენებით, ნედლი მონაცემების შკალებიდან ქმნის საკუთარ ეტიკეტებს.
გაძლიერებული სწავლება რობოტიკა, ოპერაციული კვლევა საშუალო-მაღალი ჯილდოს სიგნალებიდან სწავლობს პოლიტიკას; კანონისთვის წაიკითხეთ სატონისა და ბარტოს ნაშრომი [5].
ტრანსფორმერები NLP, ხედვა, მულტიმოდალური საშუალო-მაღალი თვითყურადღება ავლენს გრძელვადიან პერსპექტივებს და კარგად ემთხვევა ერთმანეთს; იხილეთ ორიგინალი ნაშრომი [3].
კლასიკური ML (ხეები) ტაბულური ბიზნეს აპლიკაციები დაბალი იაფი, სწრაფი, ხშირად შოკისმომგვრელად ძლიერი საბაზისო ხაზები სტრუქტურირებულ მონაცემებზე.
წესებზე დაფუძნებული/სიმბოლური შესაბამისობა, დეტერმინისტული ძალიან დაბალი გამჭვირვალე ლოგიკა; სასარგებლოა ჰიბრიდებში, როდესაც აუდიტის უნარი გჭირდებათ.
შეფასება და რისკი ყველა მერყეობს გამოიყენეთ NIST-ის GOVERN-MAP-MEASURE-MANAGE ფუნქცია მისი უსაფრთხოებისა და სასარგებლოდ შესანარჩუნებლად [4].

ფასის მსგავსი = მონაცემთა ეტიკეტირება + გამოთვლები + ადამიანები + მომსახურება.


ღრმა ანალიზი 1 - დანაკარგის ფუნქციები, გრადიენტები და პაწაწინა ნაბიჯები, რომლებიც ყველაფერს ცვლის 📉

წარმოიდგინეთ, რომ სახლის ფასის ზომიდან პროგნოზირებისთვის ხაზის გასწორება შეგიძლიათ. თქვენ ირჩევთ პარამეტრებს (w) და (b), პროგნოზირებთ (\hat{y} = wx + b) და შეცდომას ზომავთ საშუალო კვადრატული დანაკარგით. გრადიენტი გეუბნებათ, რომელი მიმართულებით უნდა იმოძრაოთ (w) და (b), რათა დანაკარგი ყველაზე სწრაფად შეამციროთ - მაგალითად, ნისლში დაღმართზე სიარულით, მიწის დახრილობის შეგრძნებით. განაახლეთ თითოეული პარტიის შემდეგ და თქვენი ხაზი რეალობას უფრო მიუახლოვდება.

ღრმა ქსელებში ეს იგივე სიმღერაა უფრო დიდი დიაპაზონით. Backprop ეფექტურად ითვლის, თუ როგორ იმოქმედა თითოეული ფენის პარამეტრებმა საბოლოო შეცდომაზე, რათა შეძლოთ მილიონობით (ან მილიარდობით) ღილაკის სწორი მიმართულებით გადაწევა [2].

ძირითადი ინტუიციები:

  • დანაკარგი ლანდშაფტს აყალიბებს.

  • გრადიენტები თქვენი კომპასია.

  • სწავლის ტემპი ნაბიჯის ზომაა - ძალიან დიდი და მერყეობ, ძალიან პატარა კი - ჩაძინებას გპირდება.

  • რეგულარიზაცია ხელს გიშლით სავარჯიშო ნაკრების თუთიყუშასავით დამახსოვრებაში სრულყოფილი დამახსოვრებით, მაგრამ გაგების გარეშე.


ღრმა ანალიზი 2 - ჩანერგვა, წახალისება და აღდგენა 🧭

ჩაშენებები სიტყვებს, სურათებს ან ელემენტებს ვექტორულ სივრცეებში ათავსებს, სადაც მსგავსი ობიექტები ერთმანეთთან ახლოს ხვდება. ეს საშუალებას გაძლევთ:

  • სემანტიკურად მსგავსი პასაჟების პოვნა

  • ძლიერი ძიება, რომელიც მნიშვნელობას ესმის

  • ჩართეთ აღდგენის-გაძლიერებული გენერაცია (RAG) , რათა ენობრივმა მოდელმა შეძლოს ფაქტების მოძიება ჩაწერამდე.

შთაგონება არის ის, თუ როგორ მართავთ გენერაციულ მოდელებს - აღწერთ დავალებას, მოჰყავთ მაგალითები, ადგენთ შეზღუდვებს. წარმოიდგინეთ ეს, როგორც ძალიან სწრაფი სტაჟიორისთვის ძალიან დეტალური სპეციფიკაციის დაწერა: მონდომებული, ზოგჯერ ზედმეტად თავდაჯერებული.

პრაქტიკული რჩევა: თუ თქვენს მოდელს ჰალუცინაციები აქვს, დაამატეთ ამოცნობის ფუნქცია, გამკაცრეთ მოთხოვნა ან შეაფასეთ დასაბუთებული მეტრიკებით „ვიბრაციების“ ნაცვლად.


ღრმა ჩაყვინთვა 3 - შეფასება ილუზიების გარეშე 🧪

კარგი შეფასება მოსაწყენად ჟღერს - სწორედ ეს არის მთავარი.

  • გამოიყენეთ ჩაკეტილი სატესტო ნაკრები.

  • აირჩიეთ მეტრიკა, რომელიც ასახავს მომხმარებლის ტკივილს.

  • აბლაციები ჩაიტარეთ, რომ გაიგოთ, სინამდვილეში რამ გიშველათ.

  • ჩაწერეთ შეცდომები რეალური, არეული მაგალითებით.

წარმოებაში მონიტორინგი არის შეფასება, რომელიც არასდროს წყდება. ხდება დრიფტი. ჩნდება ახალი ჟარგონი, ხდება სენსორების ხელახლა დაკალიბრება და გუშინდელი მოდელი ოდნავ იცვლის ნიშნულს. NIST ჩარჩო წარმოადგენს პრაქტიკულ საცნობარო მასალას მიმდინარე რისკების მართვისა და მმართველობისთვის და არა პოლიტიკის დოკუმენტს, რომელიც თაროზე უნდა გადადოთ [4].


შენიშვნა ეთიკის, მიკერძოებისა და სანდოობის შესახებ ⚖️

ხელოვნური ინტელექტის სისტემები ასახავს მათ მონაცემებსა და განლაგების კონტექსტს. ეს რისკებს იწვევს: მიკერძოებას, არათანაბარ შეცდომებს ჯგუფებს შორის, სისუსტეს განაწილების ცვლილების დროს. ეთიკური გამოყენება არ არის არჩევითი - ეს არის ცხრილის ფსონები. NIST კონკრეტულ პრაქტიკაზე მიუთითებს: რისკებისა და ზემოქმედების დოკუმენტირება, მავნე მიკერძოების გაზომვა, სარეზერვო სისტემების შექმნა და ადამიანების ინფორმირება, როდესაც ფსონები მაღალია [4].

კონკრეტული ნაბიჯები, რომლებიც დაგეხმარებათ:

  • მრავალფეროვანი, წარმომადგენლობითი მონაცემების შეგროვება

  • გაზომეთ შესრულება ქვეპოპულაციებში

  • დოკუმენტის მოდელის ბარათები და მონაცემთა ფურცლები

  • დაამატეთ ადამიანური ზედამხედველობა, სადაც ფსონები მაღალია

  • სისტემის გაურკვეველი მდგომარეობის შემთხვევაში, უსაფრთხოების სისტემების დიზაინი


როგორ მუშაობს ხელოვნური ინტელექტი? როგორც გონებრივი მოდელი, შეგიძლიათ ხელახლა გამოიყენოთ 🧩

კომპაქტური საკონტროლო სია, რომლის გამოყენებაც თითქმის ნებისმიერ ხელოვნური ინტელექტის სისტემაზე შეგიძლიათ:

  • რა არის მიზანი? პროგნოზირება, რანჟირება, გენერირება, კონტროლი?

  • საიდან მოდის სწავლის სიგნალი? ეტიკეტები, თვითკონტროლირებადი დავალებები, ჯილდოები?

  • რა არქიტექტურაა გამოყენებული? ხაზოვანი მოდელი, ხის ანსამბლი, CNN, RNN, ტრანსფორმატორი [3]?

  • როგორ არის ოპტიმიზებული? გრადიენტული დაღმართის ვარიაციები/უკანა ხედვა [2]?

  • რა მონაცემთა რეჟიმი? მცირე ეტიკეტირებული ნაკრები, არაეტიკეტირებული ტექსტის ოკეანე, სიმულირებული გარემო?

  • რა არის წარუმატებლობის რეჟიმები და დაცვის ზომები? მიკერძოება, დრიფტი, ჰალუცინაცია, შეყოვნება, ხარჯების NIST-ის GOVERN-MAP-MEASURE-MANAGE-თან შესაბამისობაში მოყვანა [4].

თუ ამ კითხვებზე პასუხის გაცემა შეგიძლიათ, ესე იგი, ძირითადად, სისტემა გესმით - დანარჩენი კი განხორციელების დეტალები და დარგის ცოდნაა.


სწრაფი წყაროები, რომლებიც ღირს სანიშნეებში დამატება 🔖

  • მანქანური სწავლების კონცეფციების (IBM) მარტივ ენაზე შესავალი [1]

  • უკუპროპაგანდა დიაგრამებით და ნაზი მათემატიკით [2]

  • ტრანსფორმატორის ნაშრომი, რომელმაც შეცვალა თანმიმდევრობის მოდელირება [3]

  • NIST-ის ხელოვნური ინტელექტის რისკების მართვის ჩარჩო (პრაქტიკული მმართველობა) [4]

  • კანონიკური გაძლიერების სწავლების სახელმძღვანელო (უფასო) [5]


ხშირად დასმული კითხვები ელვისებური რაუნდის შესახებ ⚡

ხელოვნური ინტელექტი მხოლოდ სტატისტიკაა?
ეს არის სტატისტიკა პლუს ოპტიმიზაცია, გამოთვლები, მონაცემთა ინჟინერია და პროდუქტის დიზაინი. სტატისტიკა ჩონჩხია; დანარჩენი კუნთია.

უფრო დიდი მოდელები ყოველთვის იმარჯვებენ?
მასშტაბირება გვეხმარება, მაგრამ მონაცემთა ხარისხი, შეფასება და განლაგების შეზღუდვები ხშირად უფრო მნიშვნელოვანია. ყველაზე პატარა მოდელი, რომელიც თქვენს მიზანს აღწევს, როგორც წესი, საუკეთესოა მომხმარებლებისა და საფულეებისთვის.

შეუძლია თუ არა ხელოვნურ ინტელექტს გაგება?
განსაზღვრეთ გაგება . მოდელები აღბეჭდავენ მონაცემების სტრუქტურას და შთამბეჭდავად აზოგადებენ; თუმცა, მათ აქვთ ბრმა წერტილები და შეიძლება დარწმუნებით შეცდნენ. მოეპყარით მათ როგორც ძლიერ ინსტრუმენტებს და არა როგორც ბრძენებს.

ტრანსფორმერების ერა სამუდამოა?
ალბათ არა სამუდამო. ის ახლა დომინანტურია, რადგან ყურადღება პარალელურია და კარგად მასშტაბირდება, როგორც ეს ორიგინალურ ნაშრომში [3] იყო ნაჩვენები. თუმცა, კვლევა წინ მიიწევს.


როგორ მუშაობს ხელოვნური ინტელექტი? ძალიან გრძელი, არ წამიკითხავს 🧵

  • ხელოვნური ინტელექტი მონაცემებიდან სწავლობს ნიმუშებს, მინიმუმამდე ამცირებს დანაკარგს და ახდენს ახალ შემავალ მონაცემებზე ზოგად ანალიზს [1,2].

  • ზედამხედველობითი, ზედამხედველობის გარეშე, თვითზედამხედველობითი და გაძლიერებული სწავლება ძირითადი სასწავლო სქემებია; RL სწავლობს ჯილდოებიდან [5].

  • ნეირონული ქსელები იყენებენ უკუგავრცელებას და გრადიენტულ დაღმასვლას მილიონობით პარამეტრის ეფექტურად რეგულირებისთვის [2].

  • ტრანსფორმატორები დომინირებენ მრავალ თანმიმდევრობის ამოცანაში, რადგან თვითყურადღება აღბეჭდავს ურთიერთობებს პარალელურად მასშტაბით [3].

  • რეალურ სამყაროში ხელოვნური ინტელექტი წარმოადგენს ეტაპობრივ პროცესს - პრობლემის ჩამოყალიბებიდან დაწყებული განლაგებითა და მმართველობით დამთავრებული - და NIST-ის ჩარჩო რისკებთან დაკავშირებით გულახდილად გეუბნებათ [4].

თუ ვინმე კვლავ გკითხავთ როგორ მუშაობს ხელოვნური ინტელექტი?, შეგიძლიათ გაიღიმოთ, ყავა მოსვათ და თქვათ: ის სწავლობს მონაცემებიდან, ოპტიმიზაციას უკეთებს დანაკარგს და პრობლემიდან გამომდინარე იყენებს არქიტექტურებს, როგორიცაა ტრანსფორმატორები ან ხის ანსამბლები. შემდეგ კი თვალის დახამხამება დაამატეთ, რადგან ეს ერთდროულად მარტივია და ფარულად დასრულებულია. 😉


ცნობები

[1] IBM - რა არის მანქანური სწავლება?
წაიკითხეთ მეტი

[2] მაიკლ ნილსენი - როგორ მუშაობს უკუგავრცელების ალგორითმი
წაიკითხეთ მეტი

[3] ვასვანი და სხვ. - ყურადღება ყველაფერია, რაც გჭირდება (arXiv)
წაიკითხეთ მეტი

[4] NIST - ხელოვნური ინტელექტის რისკების მართვის ჩარჩო (AI RMF 1.0)
წაიკითხეთ მეტი

[5] სატონი და ბარტო - გაძლიერებული სწავლება: შესავალი (მე-2 გამოცემა)
წაიკითხეთ მეტი

იპოვეთ უახლესი ხელოვნური ინტელექტი ოფიციალურ ხელოვნური ინტელექტის ასისტენტების მაღაზიაში

ჩვენს შესახებ

ბლოგზე დაბრუნება