მოკლე პასუხი: ხელოვნური ინტელექტი ბოლომდე ვერ ჩაანაცვლებს კიბერუსაფრთხოებას, მაგრამ ის თავის თავზე აიღებს განმეორებადი SOC და უსაფრთხოების ინჟინერიის სამუშაოების მნიშვნელოვან ნაწილს. ხმაურის შემამცირებლად და შემაჯამებლად გამოყენების შემთხვევაში - ადამიანის ჩარევის გათვალისწინებით - ის აჩქარებს ტრიაჟს და პრიორიტეტების განსაზღვრას; ორაკულად აღქმის შემთხვევაში, მას შეუძლია სარისკო ცრუ დარწმუნებულობის შემოტანა.
ძირითადი დასკვნები:
სფერო : ხელოვნური ინტელექტი ცვლის ამოცანებსა და სამუშაო პროცესებს და არა თავად პროფესიას ან ანგარიშვალდებულებას.
შრომის შემცირება : გამოიყენეთ ხელოვნური ინტელექტი შეტყობინებების კლასტერიზაციისთვის, ლაკონური შეჯამებებისა და ჟურნალის ნიმუშების დახარისხებისთვის.
გადაწყვეტილების მფლობელობა : შეინარჩუნეთ ადამიანები რისკისადმი მადის, ინციდენტების კონტროლისა და მკაცრი კომპრომისებისთვის.
ბოროტად გამოყენებისადმი წინააღმდეგობა : დიზაინი სწრაფი ინექციის, მოწამვლისა და მოწინააღმდეგეობრივი მხრიდან თავის არიდების მცდელობებისთვის.
მმართველობა : მონაცემთა საზღვრების, აუდიტისუნარიანობისა და სადავო ადამიანური შეზღუდვების აღსრულება ინსტრუმენტების დანერგვაში.

სტატიები, რომელთა წაკითხვაც შეიძლება მოგეწონოთ ამის შემდეგ:
🔗 როგორ გამოიყენება გენერაციული ხელოვნური ინტელექტი კიბერუსაფრთხოებაში
პრაქტიკული გზები, თუ როგორ აძლიერებს ხელოვნური ინტელექტი საფრთხეების გამოვლენას, რეაგირებას და პრევენციას.
🔗 კიბერუსაფრთხოებისთვის ხელოვნური ინტელექტის შეღწევადობის ტესტირების ინსტრუმენტები
ხელოვნური ინტელექტით მართული საუკეთესო გადაწყვეტილებები ტესტირების ავტომატიზაციისა და დაუცველობების აღმოსაჩენად.
🔗 საშიშია თუ არა ხელოვნური ინტელექტი? რისკები და რეალობა
მკაფიოდ შეხედეთ საფრთხეებს, მითებს და ხელოვნური ინტელექტის პასუხისმგებლიან დაცვას.
🔗 ხელოვნური ინტელექტის უსაფრთხოების საუკეთესო ინსტრუმენტების სახელმძღვანელო
სისტემებისა და მონაცემების დასაცავად ხელოვნური ინტელექტის გამოყენებით საუკეთესო უსაფრთხოების ინსტრუმენტები.
„ჩანაცვლების“ ჩარჩო ხაფანგია 😅
როდესაც ადამიანები ამბობენ , „შეუძლია თუ არა ხელოვნურ ინტელექტს კიბერუსაფრთხოების ჩანაცვლება“ , ისინი, როგორც წესი, სამიდან ერთ-ერთ რამეს გულისხმობენ:
-
ანალიტიკოსების შეცვლა (ადამიანები არ არის საჭირო)
-
შეცვალეთ ხელსაწყოები (ყველაფერს ერთი ხელოვნური ინტელექტის პლატფორმა აკეთებს)
-
შედეგების ჩანაცვლება (ნაკლები დარღვევები, ნაკლები რისკი)
ხელოვნური ინტელექტი ყველაზე ძლიერია განმეორებითი ძალისხმევის ჩანაცვლებასა და გადაწყვეტილების მიღების დროის შემცირებაში. ყველაზე სუსტი კი ანგარიშვალდებულების, კონტექსტისა და განსჯის ჩანაცვლებაშია. უსაფრთხოება მხოლოდ აღმოჩენა არ არის - ეს არის რთული კომპრომისები, ბიზნეს შეზღუდვები, პოლიტიკა (უჰ) და ადამიანის ქცევა.
იცით, როგორ ხდება ეს - დარღვევა არ იყო „გაფრთხილებების ნაკლებობა“. ეს იყო იმის არარსებობა, რომ ვინმეს სჯეროდა, რომ შეტყობინება მნიშვნელოვანი იყო. 🙃
სადაც ხელოვნური ინტელექტი უკვე „ცვლის“ კიბერუსაფრთხოების სამუშაოებს (პრაქტიკაში) ⚙️
ხელოვნური ინტელექტი უკვე იღებს სამუშაოს გარკვეულ კატეგორიებს, მაშინაც კი, თუ ორგანიზაციული სქემა ისევ იგივე გამოიყურება.
1) ტრიაჟი და განგაშის კლასტერიზაცია
-
მსგავსი შეტყობინებების ერთ ინციდენტში დაჯგუფება
-
ხმაურიანი სიგნალების დუბლირების აღმოფხვრა
-
სავარაუდო ზემოქმედების მიხედვით რანჟირება
ეს მნიშვნელოვანია, რადგან ტრიაჟი არის ის, როდესაც ადამიანები კარგავენ სიცოცხლის სურვილს. თუ ხელოვნური ინტელექტი ხმაურს ოდნავ მაინც შეამცირებს, ეს ჰგავს ხანძრის სიგნალიზაციის გამორთვას, რომელიც კვირების განმავლობაში ყვიროდა 🔥🔕
2) ლოგარითმული ანალიზი და ანომალიების აღმოჩენა
-
საეჭვო ნიმუშების აღმოჩენა მანქანის სიჩქარით
-
მონიშვნა „ეს უჩვეულოა საწყის ნიშნულთან შედარებით“
ის იდეალური არ არის, მაგრამ შეიძლება ღირებული იყოს. ხელოვნური ინტელექტი პლაჟზე მდებარე მეტალოდეტექტორს ჰგავს - ის ბევრ სიგნალს გამოსცემს და ზოგჯერ ბოთლის თავსახურის ხმას გამოსცემს, მაგრამ ზოგჯერ ეს ბეჭედი 💍… ან კომპრომეტირებული ადმინისტრატორის ტოკენია.
3) მავნე პროგრამებისა და ფიშინგის კლასიფიკაცია
-
დანართების, URL-ების, დომენების კლასიფიკაცია
-
მსგავსი ბრენდების და გაყალბების ნიმუშების აღმოჩენა
-
სანდბოქსის განაჩენების შეჯამებების ავტომატიზაცია
4) დაუცველობის მართვის პრიორიტეტიზაცია
არა „რომელი CVE-ები არსებობს“ - ყველამ ვიცით, რომ ძალიან ბევრია. ხელოვნური ინტელექტი გვეხმარება პასუხის გაცემაში:
-
რომლებიც, სავარაუდოდ, აქ ექსპლუატაციაში იქნება. EPSS (პირველი)
-
რომლებიც გარედან არის გამოვლენილი
-
რომელი რუკა ღირებულ აქტივებზეა. CISA KEV კატალოგი
-
რომელი უნდა განახლდეს პირველი ორგანიზაციის „დაწვის“ გარეშე. NIST SP 800-40 Rev. 4 (საწარმოს პატჩების მართვა)
და დიახ, ადამიანებსაც შეეძლოთ ამის გაკეთება - დრო უსასრულო რომ ყოფილიყო და არავინ არასდროს არდადეგებზე წასულიყო.
რა ხდის ხელოვნური ინტელექტის ვერსიას კარგს კიბერუსაფრთხოებაში 🧠
ეს ის ნაწილია, რომელსაც ადამიანები გამოტოვებენ და შემდეგ „ხელოვნურ ინტელექტს“ ადანაშაულებენ, თითქოს ეს გრძნობებით სავსე ერთიანი პროდუქტი იყოს.
კიბერუსაფრთხოებაში ხელოვნური ინტელექტის კარგ ვერსიას, როგორც წესი, შემდეგი მახასიათებლები აქვს:
-
მაღალი სიგნალ-ხმაურის თანაფარდობა
-
მან ხმაური უნდა შეამციროს და არა ზედმეტი ხმაურის შექმნა უცნაური ფრაზით.
-
-
ახსნა-განმარტება, რომელიც პრაქტიკაში დაგეხმარებათ
-
არც რომანი. არც ვიბრაციები. რეალური მინიშნებები: რა ნახა, რატომ აინტერესებს, რა შეიცვალა.
-
-
მჭიდრო ინტეგრაცია თქვენს გარემოსთან
-
IAM, საბოლოო წერტილის ტელემეტრია, ღრუბლოვანი პოზა, ბილეთები, აქტივების ინვენტარი… არამომხიბვლელი რაღაცეები.
-
-
ჩაშენებულია ადამიანის მიერ გადაფარვა
-
ანალიტიკოსებმა ეს უნდა გამოასწორონ, დაარეგულირონ და ზოგჯერ უგულებელყონ. როგორც ახალგაზრდა ანალიტიკოსი, რომელიც არასდროს სძინავს, მაგრამ ხანდახან პანიკაში ვარდება.
-
-
უსაფრთხოებისთვის უსაფრთხო მონაცემთა დამუშავება
-
მკაფიო საზღვრები იმის შესახებ, თუ რა ინახება, რა ისწავლება ან რა ინახება. NIST AI RMF 1.0
-
-
მანიპულირებისადმი მდგრადობა
-
თავდამსხმელები შეეცდებიან სწრაფი ინექციის, მოწამვლისა და მოტყუების განხორციელებას. ისინი ყოველთვის ასე იქცევიან. OWASP LLM01: სწრაფი ინექცია დიდი ბრიტანეთის ხელოვნური ინტელექტის კიბერუსაფრთხოების პრაქტიკის კოდექსი
-
მოდით, გულახდილები ვიყოთ - „ხელოვნური ინტელექტის უსაფრთხოების“ დიდი ნაწილი იმიტომ ვერ ხერხდება, რომ ის გაწვრთნილია იმისთვის, რომ დარწმუნებულად ჟღერდეს და არა იმისთვის, რომ მართალი იყოს. თავდაჯერებულობა კონტროლი არ არის. 😵💫
ნაწილები, რომელთა შეცვლაც ხელოვნურ ინტელექტს უჭირს - და ეს უფრო მნიშვნელოვანია, ვიდრე ჟღერს 🧩
აი, არასასიამოვნო სიმართლე: კიბერუსაფრთხოება მხოლოდ ტექნიკური არ არის. ის სოციალურ-ტექნიკურია. ეს არის ადამიანები პლუს სისტემები პლუს სტიმულები.
ხელოვნური ინტელექტი ებრძვის:
1) ბიზნეს კონტექსტი და რისკისადმი მიდრეკილება
უსაფრთხოების გადაწყვეტილებები იშვიათად ეხება „ცუდია თუ არა“. ისინი უფრო ასეთია:
-
საკმარისად მძიმეა თუ არა ეს შემოსავლის შესაჩერებლად
-
ღირს თუ არა განლაგების მილსადენის გაწყვეტა
-
დაეთანხმება თუ არა აღმასრულებელი გუნდი ამისთვის შეფერხების პერიოდს
ხელოვნურ ინტელექტს შეუძლია დახმარება, მაგრამ ამის უფლება არ აქვს. ვიღაც ხელს აწერს გადაწყვეტილებას. ვიღაც კი ღამის 2 საათზე ზარს იღებს 📞
2) ინციდენტის მართვა და გუნდური კოორდინაცია
რეალური ინციდენტების დროს „სამუშაო“ ასეთია:
-
ოთახში სწორი ადამიანების მოზიდვა
-
ფაქტებზე დაყრდნობა პანიკის გარეშე
-
კომუნიკაციების, მტკიცებულებების, იურიდიული საკითხების, მომხმარებლებთან შეტყობინებების მართვა NIST SP 800-61 (ინციდენტების მართვის სახელმძღვანელო)
ხელოვნურ ინტელექტს, რა თქმა უნდა, შეუძლია ვადების შედგენა ან ჟურნალების შეჯამება. ზეწოლის ქვეშ ლიდერობის შეცვლა... ოპტიმისტურია. ეს იგივეა, კალკულატორს სთხოვო ხანძრის ჩაქრობის წვრთნა.
3) საფრთხის მოდელირება და არქიტექტურა
საფრთხის მოდელირება ნაწილობრივ ლოგიკაა, ნაწილობრივ კრეატიულობა და ნაწილობრივ პარანოია (ძირითადად ჯანსაღი პარანოია).
-
ჩამოთვლა, თუ რა შეიძლება არასწორად წავიდეს
-
თავდამსხმელის ქმედებების მოლოდინი
-
ყველაზე იაფი კონტროლის არჩევა, რომელიც ცვლის თავდამსხმელის მათემატიკას
ხელოვნურ ინტელექტს შეუძლია შაბლონების შემოთავაზება, მაგრამ რეალური ღირებულება თქვენი სისტემების, თქვენი ადამიანების, თქვენი მალსახმობების და თქვენი განსაკუთრებული მემკვიდრეობითი დამოკიდებულებების ცოდნაა.
4) ადამიანური ფაქტორები და კულტურა
ფიშინგი, რწმუნებათა სიგელების ხელახალი გამოყენება, ჩრდილოვანი IT, დაუდევარი წვდომის მიმოხილვები - ეს ტექნიკური კოსტიუმების მატარებელ ადამიანურ პრობლემებს წარმოადგენს 🎭
ხელოვნურ ინტელექტს შეუძლია აღმოაჩინოს, მაგრამ ვერ გამოასწორებს, თუ რატომ იქცევა ორგანიზაცია ასე.
თავდამსხმელებიც იყენებენ ხელოვნურ ინტელექტს - ამიტომ სათამაშო მოედანი გვერდზე იხრება 😈🤖
კიბერუსაფრთხოების ჩანაცვლების შესახებ ნებისმიერი განხილვა აშკარა ფაქტს უნდა მოიცავდეს: თავდამსხმელები ერთ ადგილზე არ დგანან.
ხელოვნური ინტელექტი თავდამსხმელებს ეხმარება:
-
დაწერეთ უფრო დამაჯერებელი ფიშინგის შეტყობინებები (ნაკლები გრამატიკული დარღვევები, მეტი კონტექსტი) FBI-ის გაფრთხილება ხელოვნური ინტელექტით ჩართულ ფიშინგზე IC3 PSA გენერაციული ხელოვნური ინტელექტით თაღლითობის/ფიშინგის შესახებ
-
პოლიმორფული მავნე პროგრამების ვარიაციების უფრო სწრაფად გენერირება OpenAI-ის საფრთხის შესახებ ინფორმაციის ანგარიშებში (მავნე გამოყენების მაგალითები)
-
ავტომატიზირებული დაზვერვა და სოციალური ინჟინერია ევროპოლის „ChatGPT ანგარიში“ (არასათანადო გამოყენების მიმოხილვა)
-
მასშტაბის მცდელობები იაფად
ასე რომ, დამცველებისთვის ხელოვნური ინტელექტის გამოყენება გრძელვადიან პერსპექტივაში არჩევითი არ არის. ეს უფრო იმას ჰგავს, რომ... ფანარს იმიტომ მოიტან, რომ მეორე მხარეს ღამის ხედვის სათვალე აქვს. უხერხული მეტაფორა. მაინც გარკვეულწილად სიმართლეა.
ასევე, თავდამსხმელები თავად ხელოვნური ინტელექტის სისტემებს დაუმიზნებენ:
-
სწრაფი ინექცია უსაფრთხოების მეორე პილოტებში OWASP LLM01: სწრაფი ინექცია
-
მონაცემების მოწამვლა მოდელების დამახინჯებისთვის - დიდი ბრიტანეთის ხელოვნური ინტელექტის კიბერუსაფრთხოების პრაქტიკის კოდექსი
-
შეჯიბრებითი მაგალითები გამოვლენის თავიდან ასაცილებლად MITRE ATLAS
-
მოდელის ამოღების მცდელობები ზოგიერთ კონფიგურაციაში MITRE ATLAS
უსაფრთხოება ყოველთვის კატა-თაგვის საკითხი იყო. ხელოვნური ინტელექტი კატებს უფრო სწრაფს ხდის, თაგვებს კი - უფრო გამომგონებელს 🐭
რეალური პასუხი: ხელოვნური ინტელექტი ცვლის ამოცანებს და არა ანგარიშვალდებულებას ✅
ეს არის „უხერხული შუალედური ზონა“, რომელშიც გუნდების უმეტესობა ხვდება:
-
ხელოვნური ინტელექტი აკონტროლებს მასშტაბირებას
-
ადამიანები ფსონებს
-
ერთად ისინი უმკლავდებიან სიჩქარეს და განსჯას
უსაფრთხოების სამუშაო პროცესებში ჩემს მიერ ჩატარებული ტესტირებისას, ხელოვნური ინტელექტი საუკეთესოა, როდესაც მას შემდეგნაირად ვეპყრობით:
-
ტრიაჟის ასისტენტი
-
შემაჯამებელი
-
კორელაციის ძრავა
-
პოლიტიკის დამხმარე
-
კოდის განხილვის მეგობარი სარისკო ნიმუშებისთვის
ხელოვნური ინტელექტი უარესია, როდესაც მას შემდეგნაირად ექცევიან:
-
ორაკული
-
სიმართლის ერთი წერტილი
-
„დააყენე და დაივიწყე“ თავდაცვის სისტემა
-
გუნდის არასაკმარისი პერსონალის მიზეზი (ეს მოგვიანებით იკბინება... ძალიან რთულად)
ეს ჰგავს მოდარაჯე ძაღლის დაქირავებას, რომელიც ასევე წერს ელ.წერილებს. შესანიშნავია. მაგრამ ზოგჯერ ის მტვერსასრუტს ყეფს და ღობეზე ხტუნვისას ვერ ამჩნევს. 🐶🧹
შედარების ცხრილი (ტოპ ვარიანტები, რომლებსაც გუნდები ყოველდღიურად იყენებენ) 📊
ქვემოთ მოცემულია პრაქტიკული შედარების ცხრილი - არასრულყოფილი, ცოტა არათანაბარი, როგორც რეალურ ცხოვრებაში.
| ინსტრუმენტი / პლატფორმა | საუკეთესო (აუდიტორიისთვის) | ფასის განწყობა | რატომ მუშაობს (და მისი თავისებურებები) |
|---|---|---|---|
| Microsoft Sentinel-ის Microsoft Learn-ი | Microsoft-ის ეკოსისტემებში მცხოვრები SOC გუნდები | $$ - $$$ | ძლიერი ღრუბლოვანი SIEM შაბლონები; ბევრი კონექტორი, შეიძლება ხმაურიანი გახდეს, თუ არ არის დაყენებული.. |
| Splunk- ის საწარმოს უსაფრთხოება | უფრო დიდი ორგანიზაციები ინტენსიური ლოგინგით + მორგებული საჭიროებებით | $$$ (ხშირად $$$$ გულწრფელად რომ ვთქვა) | ძლიერი ძიება + დაფები; საოცარია, როდესაც კურირებულია, მტკივნეულია, როდესაც მონაცემთა ჰიგიენას არავინ ფლობს |
| Google-ის უსაფრთხოების ოპერაციები Google Cloud | გუნდები, რომლებსაც სურთ მართული მასშტაბის ტელემეტრია | $$ - $$$ | კარგია დიდი მონაცემების მასშტაბისთვის; დამოკიდებულია ინტეგრაციის სიმწიფეზე, როგორც ბევრი რამ |
| CrowdStrike Falcon CrowdStrike | საბოლოო წერტილებზე ორიენტირებული ორგანიზაციები, IR გუნდები | $$$ | ძლიერი ხილვადობა საბოლოო წერტილისთვის; დიდი აღმოჩენის სიღრმე, მაგრამ მაინც გჭირდებათ ადამიანები რეაგირების განსახორციელებლად |
| Microsoft Defender საბოლოო წერტილისთვის Microsoft Learn | M365-ით მძიმე ორგანიზაციები | $$ - $$$ | Microsoft-თან მჭიდრო ინტეგრაცია; შეიძლება შესანიშნავი იყოს, არასწორი კონფიგურაციის შემთხვევაში კი შეიძლება „რიგში 700 შეტყობინება იყოს“ |
| პალო ალტოს Cortex XSOAR პალო ალტოს ქსელები | ავტომატიზაციაზე ორიენტირებული SOC-ები | $$$ | სახელმძღვანელოები ამცირებს შრომას; საჭიროებს ზრუნვას, თორემ ავტომატიზირებთ არეულობას (დიახ, ესეც ასეა) |
| Wiz Wiz პლატფორმა | ღრუბლოვანი უსაფრთხოების გუნდები | $$$ | ძლიერი ხილვადობა ღრუბელში; ხელს უწყობს რისკების სწრაფად პრიორიტეტად დაყენებას, თუმცა მაინც საჭიროებს მმართველობას |
| სნიკ სნიკ პლატფორმა | Dev-first ორგანიზაციები, AppSec | $$ - $$$ | დეველოპერებისთვის მოსახერხებელი სამუშაო პროცესები; წარმატება დამოკიდებულია დეველოპერების მიერ ადაპტირებაზე და არა მხოლოდ სკანირებაზე |
პატარა შენიშვნა: არცერთი ინსტრუმენტი არ „იმარჯვებს“ თავისთავად. საუკეთესო ინსტრუმენტი ისაა, რომელსაც თქვენი გუნდი ყოველდღიურად იყენებს უკმაყოფილების გარეშე. ეს მეცნიერება კი არა, გადარჩენაა 😅
რეალისტური ოპერაციული მოდელი: როგორ იმარჯვებენ გუნდები ხელოვნური ინტელექტით 🤝
თუ გსურთ, რომ ხელოვნურმა ინტელექტმა მნიშვნელოვნად გააუმჯობესოს უსაფრთხოება, ინსტრუქცია, როგორც წესი, ასეთია:
ნაბიჯი 1: გამოიყენეთ ხელოვნური ინტელექტი შრომის შესამცირებლად
-
შეტყობინებების გამდიდრების შეჯამებები
-
ბილეთების შედგენა
-
მტკიცებულებების შეგროვების საკონტროლო სიები
-
ჟურნალის შეკითხვის შემოთავაზებები
-
„რა შეიცვალა“ განსხვავდება კონფიგურაციებში
ნაბიჯი 2: გამოიყენეთ ადამიანები დასადასტურებლად და გადაწყვეტილების მისაღებად
-
გავლენისა და მასშტაბის დადასტურება
-
აირჩიეთ შეკავების ქმედებები
-
კოორდინირებული გუნდური შესწორებები
ნაბიჯი 3: უსაფრთხო ნივთების ავტომატიზაცია
კარგი ავტომატიზაციის მიზნები:
-
ცნობილი დაზიანებული ფაილების კარანტინში მოთავსება მაღალი სანდოობით
-
ავტორიზაციის მონაცემების გადატვირთვა დადასტურებული კომპრომეტირების შემდეგ
-
აშკარად მავნე დომენების დაბლოკვა
-
პოლიტიკის გადახრის კორექტირების აღსრულება (ფრთხილად)
სარისკო ავტომატიზაციის სამიზნეები:
-
წარმოების სერვერების ავტომატური იზოლაცია დაცვის გარეშე
-
რესურსების წაშლა გაურკვეველი სიგნალების საფუძველზე
-
დიდი IP დიაპაზონების დაბლოკვა, რადგან „მოდელს ასე ეჩვენებოდა“ 😬
ნაბიჯი 4: გაკვეთილების ხელახლა ჩართვა საკონტროლო სისტემებში
-
ინციდენტის შემდგომი რეგულირება
-
გაუმჯობესებული აღმოჩენები
-
აქტივების უკეთესი ინვენტარი (მარადიული ტკივილი)
-
უფრო ვიწრო პრივილეგიები
სწორედ აქ გვეხმარება ხელოვნური ინტელექტი: სიკვდილის შემდგომი დასკვნების შეჯამება, აღმოჩენის ხარვეზების რუკაზე დატანა, არეულობის განმეორებად გაუმჯობესებად გარდაქმნა.
ხელოვნური ინტელექტით მართული უსაფრთხოების ფარული რისკები (დიახ, რამდენიმეა) ⚠️
თუ ხელოვნურ ინტელექტს აქტიურად იყენებთ, შემდეგი სირთულეებისთვის უნდა დაგეგმოთ:
-
გამოგონილი დარწმუნებულობა
-
უსაფრთხოების გუნდებს მტკიცებულებები სჭირდებათ და არა ისტორიების მოყოლა. ხელოვნურ ინტელექტს უყვარს ისტორიების მოყოლა. NIST AI RMF 1.0
-
-
მონაცემთა გაჟონვა
-
მოთხოვნები შეიძლება შემთხვევით შეიცავდეს მგრძნობიარე დეტალებს. თუ ყურადღებით დააკვირდებით, ჟურნალები სავსეა საიდუმლოებებით. OWASP-ის ტოპ 10 LLM აპლიკაციებისთვის
-
-
ზედმეტი დამოკიდებულება
-
ადამიანები წყვეტენ საფუძვლების შესწავლას, რადგან მეორე პილოტმა „ყოველთვის იცის“... სანამ საბოლოოდ არ იცის.
-
-
მოდელის დრიფტი
-
გარემო იცვლება. შეტევის ნიმუშები იცვლება. აღმოჩენები ჩუმად იშლება. NIST AI RMF 1.0
-
-
შეურაცხმყოფელი ძალადობა
-
თავდამსხმელები შეეცდებიან ხელოვნურ ინტელექტზე დაფუძნებული სამუშაო პროცესების წარმართვას, დაბნევას ან ექსპლუატაციას. უსაფრთხო ხელოვნური ინტელექტის სისტემის შემუშავების სახელმძღვანელო პრინციპები (NSA/CISA/NCSC-UK)
-
ეს ჰგავს ძალიან ჭკვიანი საკეტის აწყობას და შემდეგ გასაღების ხალიჩის ქვეშ დატოვებას. საკეტი ერთადერთი პრობლემა არ არის.
ასე რომ… შეუძლია თუ არა ხელოვნურ ინტელექტს კიბერუსაფრთხოების ჩანაცვლება: მკაფიო პასუხი 🧼
შეუძლია თუ არა ხელოვნურ ინტელექტს კიბერუსაფრთხოების ჩანაცვლება?
მას შეუძლია ჩაანაცვლოს კიბერუსაფრთხოების ფარგლებში განმეორებადი სამუშაოს დიდი ნაწილი. მას შეუძლია დააჩქაროს გამოვლენა, დახარისხება, ანალიზი და რეაგირების ნაწილებიც კი. თუმცა, მას არ შეუძლია სრულად ჩაანაცვლოს დისციპლინა, რადგან კიბერუსაფრთხოება ერთი ამოცანა არ არის - ეს არის მმართველობა, არქიტექტურა, ადამიანის ქცევა, ინციდენტების ხელმძღვანელობა და უწყვეტი ადაპტაცია.
თუ გსურთ ყველაზე გულწრფელი (ცოტა პირდაპირი, ბოდიში) ფორმულირება:
-
ხელოვნური ინტელექტი ცვლის დატვირთულ სამუშაოს
-
ხელოვნური ინტელექტი აძლიერებს კარგ გუნდებს
-
ხელოვნური ინტელექტი ავლენს არასწორ პროცესებს
-
ადამიანები კვლავ პასუხისმგებელნი არიან რისკებსა და რეალობაზე
და დიახ, ზოგიერთი როლი შეიცვლება. საწყისი დონის ამოცანები ყველაზე სწრაფად შეიცვლება. თუმცა, ახალი ამოცანებიც ჩნდება: სწრაფი და უსაფრთხო სამუშაო პროცესები, მოდელის ვალიდაცია, უსაფრთხოების ავტომატიზაციის ინჟინერია, ხელოვნური ინტელექტის დახმარებით ხელსაწყოებით აღმოჩენის ინჟინერია... სამუშაო არ ქრება, ის მუტაციას განიცდის 🧬
დასკვნითი შენიშვნები და მოკლე მიმოხილვა 🧾✨
თუ უსაფრთხოების კუთხით ხელოვნური ინტელექტის გამოყენებას გადაწყვეტთ, პრაქტიკული რჩევები შემდეგია:
-
გამოიყენეთ ხელოვნური ინტელექტი დროის შესაკუმშად - უფრო სწრაფი კლასიფიკაცია, უფრო სწრაფი შეჯამებები, უფრო სწრაფი კორელაცია.
-
განსჯისთვის შეინახეთ - კონტექსტი, კომპრომისები, ლიდერობა, ანგარიშვალდებულება.
-
ვარაუდობენ, რომ თავდამსხმელებიც იყენებენ ხელოვნურ ინტელექტს - დიზაინი მოტყუებისა და მანიპულირებისთვის. MITRE ATLAS-ის სახელმძღვანელო მითითებები უსაფრთხო ხელოვნური ინტელექტის სისტემის შემუშავებისთვის (NSA/CISA/NCSC-UK)
-
ნუ იყიდით „ჯადოქრობას“ - შეიძინეთ სამუშაო პროცესები, რომლებიც მნიშვნელოვნად ამცირებს რისკებსა და შრომას.
ასე რომ, დიახ, ხელოვნურ ინტელექტს შეუძლია სამუშაოს ნაწილის ჩანაცვლება და ხშირად ამას ისე აკეთებს, რომ თავიდან შეუმჩნევლად მოგეჩვენებათ. გამარჯვებული ნაბიჯი ის არის, რომ ხელოვნური ინტელექტი თქვენს ბერკეტად აქციოთ და არა შემცვლელად.
და თუ თქვენს კარიერაზე ღელავთ - ყურადღება გაამახვილეთ იმ ნაწილებზე, რომლებთანაც ხელოვნური ინტელექტი ებრძვის: სისტემურ აზროვნებას, ინციდენტების ლიდერობას, არქიტექტურას და იმ ადამიანად ყოფნას, ვისაც შეუძლია განასხვავოს „საინტერესო განგაში“ და „ძალიან ცუდი დღე გველის“ 😄🔐
ხშირად დასმული კითხვები
შეუძლია თუ არა ხელოვნურ ინტელექტს კიბერუსაფრთხოების გუნდების სრულად ჩანაცვლება?
ხელოვნურ ინტელექტს შეუძლია კიბერუსაფრთხოების სამუშაოს მნიშვნელოვანი ნაწილის თავის თავზე აღება, მაგრამ არა მთლიანად დისციპლინა. ის შესანიშნავად ასრულებს განმეორებით გამტარუნარიანობის ამოცანებს, როგორიცაა შეტყობინებების კლასტერიზაცია, ანომალიების აღმოჩენა და პირველი ეტაპის რეზიუმეების შედგენა. როდესაც ფსონები მაღალია, ის ვერ ცვლის ანგარიშვალდებულებას, ბიზნეს კონტექსტს და განსჯას. პრაქტიკაში, გუნდები „უხერხულ შუალედურ გარემოში“ ჯდებიან, სადაც ხელოვნური ინტელექტი უზრუნველყოფს მასშტაბურობას და სიჩქარეს, ხოლო ადამიანები ინარჩუნებენ პასუხისმგებლობას შედეგობრივი გადაწყვეტილებების მიღებაზე.
სად ცვლის ხელოვნური ინტელექტი ყოველდღიურ SOC მუშაობას?
ბევრ SOC-ში ხელოვნური ინტელექტი ისედაც დიდ დროს მოითხოვს ისეთი სამუშაოს შესასრულებლად, როგორიცაა ტრიაჟი, დუბლირების აღმოფხვრა და შეტყობინებების რანჟირება სავარაუდო ზემოქმედების მიხედვით. მას ასევე შეუძლია დააჩქაროს ლოგარითმული ანალიზი საბაზისო ქცევისგან გადახრილი ნიმუშების მონიშვნით. შედეგი არ არის ინციდენტების ჯადოსნურად შემცირება - ეს არის ხმაურში ხეტიალში დახარჯული ნაკლები საათი, რათა ანალიტიკოსებმა ყურადღება გაამახვილონ მნიშვნელოვან გამოძიებებზე.
როგორ გვეხმარება ხელოვნური ინტელექტის ინსტრუმენტები დაუცველობის მართვასა და პატჩების პრიორიტეტიზაციაში?
ხელოვნური ინტელექტი ხელს უწყობს დაუცველობის მართვის გადატანას „ძალიან ბევრი CVE“-დან „რა უნდა გავასწოროთ აქ პირველ რიგში“-ზე. გავრცელებული მიდგომა აერთიანებს ექსპლოიტის ალბათობის სიგნალებს (მაგალითად, EPSS), ცნობილ ექსპლოიაციის სიებს (მაგალითად, CISA-ს KEV კატალოგი) და თქვენი გარემოს კონტექსტს (ინტერნეტზე ზემოქმედება და აქტივების კრიტიკულობა). კარგად შესრულებული ეს ამცირებს ვარაუდებს და მხარს უჭერს პატჩებს ბიზნესის დარღვევის გარეშე.
რა განასხვავებს კიბერუსაფრთხოების სფეროში ხელოვნურ ინტელექტს „კარგისგან“ ხმაურიან ხელოვნურ ინტელექტთან შედარებით?
კიბერუსაფრთხოების სფეროში კარგი ხელოვნური ინტელექტი ამცირებს ხმაურს, დამაჯერებლად ჟღერადი არეულობის შექმნის ნაცვლად. ის გვთავაზობს პრაქტიკულ ახსნას - კონკრეტულ მინიშნებებს, როგორიცაა რა შეიცვალა, რა დაფიქსირდა და რატომ არის ეს მნიშვნელოვანი - გრძელი, ბუნდოვანი ნარატივების ნაცვლად. ის ასევე ინტეგრირდება ძირითად სისტემებთან (IAM, საბოლოო წერტილი, ღრუბელი, ბილეთების გაცემა) და მხარს უჭერს ადამიანის მიერ ჩარევას, რათა ანალიტიკოსებმა საჭიროების შემთხვევაში შეძლონ მისი გამოსწორება, მორგება ან უგულებელყოფა.
კიბერუსაფრთხოების რომელი ნაწილების ჩანაცვლება უჭირს ხელოვნურ ინტელექტს?
ხელოვნურ ინტელექტს ყველაზე მეტად სოციალურ-ტექნიკური სამუშაო უჭირს: რისკისადმი მიდრეკილება, ინციდენტების მართვა და გუნდებს შორის კოორდინაცია. ინციდენტების დროს სამუშაო ხშირად კომუნიკაციაში, მტკიცებულებების დამუშავებაში, იურიდიულ საკითხებსა და გაურკვევლობის პირობებში გადაწყვეტილების მიღებაში გადაიზრდება - სფეროებში, სადაც ლიდერობა აჭარბებს შაბლონების შესაბამისობას. ხელოვნურ ინტელექტს შეუძლია დაეხმაროს ჟურნალების შეჯამებას ან ვადების შედგენას, მაგრამ ის საიმედოდ ვერ ცვლის პასუხისმგებლობას ზეწოლის ქვეშ.
როგორ იყენებენ თავდამსხმელები ხელოვნურ ინტელექტს და ცვლის თუ არა ეს დამცველის სამუშაოს?
თავდამსხმელები ხელოვნურ ინტელექტს იყენებენ ფიშინგის მასშტაბირებისთვის, უფრო დამაჯერებელი სოციალური ინჟინერიის გენერირებისთვის და მავნე პროგრამების ვარიანტებზე უფრო სწრაფად განმეორებისთვის. ეს ცვლის სათამაშო ველს: დროთა განმავლობაში ხელოვნური ინტელექტის გამოყენება ნაკლებად არჩევითი ხდება დამცველების მიერ. ეს ასევე ზრდის ახალ რისკებს, რადგან თავდამსხმელებმა შეიძლება ხელოვნური ინტელექტის სამუშაო პროცესები სწრაფი ინექციის, მოწამვლის მცდელობის ან მოწინააღმდეგეობრივი თავის არიდების გზით დაუმიზნონ - რაც იმას ნიშნავს, რომ ხელოვნური ინტელექტის სისტემებსაც სჭირდებათ უსაფრთხოების კონტროლი და არა ბრმა ნდობა.
რა არის უსაფრთხოების გადაწყვეტილებების მიღებისას ხელოვნურ ინტელექტზე დაყრდნობის ყველაზე დიდი რისკები?
ერთ-ერთი მთავარი რისკი გამოგონილი დარწმუნებულობაა: ხელოვნური ინტელექტი შეიძლება თავდაჯერებულად ჟღერდეს მაშინაც კი, როცა ის არასწორია და თავდაჯერებულობა კონტროლის საშუალება არ არის. მონაცემთა გაჟონვა კიდევ ერთი გავრცელებული ნაკლია - უსაფრთხოების მოთხოვნებმა შეიძლება შემთხვევით შეიცავდეს მგრძნობიარე დეტალებს, ხოლო ჟურნალები ხშირად შეიცავს საიდუმლოებებს. ზედმეტად დაყრდნობამ ასევე შეიძლება დაანგრიოს ფუნდამენტური მონაცემები, ხოლო მოდელის ცვალებადობამ ჩუმად აუარესოს აღმოჩენების ეფექტურობა გარემოსა და თავდამსხმელის ქცევის ცვლილებასთან ერთად.
როგორია კიბერუსაფრთხოებაში ხელოვნური ინტელექტის გამოყენების რეალისტური ოპერაციული მოდელი?
პრაქტიკული მოდელი ასე გამოიყურება: გამოიყენეთ ხელოვნური ინტელექტი შრომის შესამცირებლად, დაელოდეთ ადამიანების შემოწმებას და გადაწყვეტილებების მიღებას და ავტომატიზირეთ მხოლოდ უსაფრთხო ინფორმაცია. ხელოვნური ინტელექტი ძლიერია გამდიდრების შეჯამებებისთვის, ბილეთების შედგენისთვის, მტკიცებულებების საკონტროლო სიებისთვის და „რა შეიცვალა“ განსხვავებებისთვის. ავტომატიზაცია საუკეთესოდ შეეფერება მაღალი სანდოობის ქმედებებს, როგორიცაა ცნობილი, არასათანადო დომენების დაბლოკვა ან ავტორიზაციის პარამეტრების გადატვირთვა დადასტურებული კომპრომეტირების შემდეგ, უსაფრთხოების ზომებით, რათა თავიდან აიცილოთ ინფორმაციის გადაჭარბება.
ჩაანაცვლებს თუ არა ხელოვნური ინტელექტი კიბერუსაფრთხოების საწყისი დონის თანამდებობებს და რომელი უნარები გახდება უფრო ღირებული?
საწყისი დონის დავალებების გროვები, სავარაუდოდ, ყველაზე სწრაფად იცვლება, რადგან ხელოვნურ ინტელექტს შეუძლია განმეორებითი დახარისხების, შეჯამებისა და კლასიფიკაციის სამუშაოების ათვისება. თუმცა, ჩნდება ახალი დავალებებიც, როგორიცაა სწრაფი და უსაფრთხო სამუშაო პროცესების შექმნა, მოდელის შედეგების ვალიდაცია და საინჟინრო უსაფრთხოების ავტომატიზაცია. კარიერული მდგრადობა, როგორც წესი, იმ უნარებიდან მოდის, რომლებშიც ხელოვნურ ინტელექტს პრობლემები აქვს: სისტემური აზროვნება, არქიტექტურა, ინციდენტების ლიდერობა და ტექნიკური სიგნალების ბიზნეს გადაწყვეტილებებად გარდაქმნა.
ცნობები
-
FIRST - EPSS (FIRST) - first.org
-
კიბერუსაფრთხოებისა და ინფრასტრუქტურის უსაფრთხოების სააგენტო (CISA) - ცნობილი ექსპლუატირებული დაუცველობების კატალოგი - cisa.gov
-
სტანდარტებისა და ტექნოლოგიების ეროვნული ინსტიტუტი (NIST) - SP 800-40 Rev. 4 (საწარმოს პატჩების მართვა) - csrc.nist.gov
-
სტანდარტებისა და ტექნოლოგიების ეროვნული ინსტიტუტი (NIST) - AI RMF 1.0 - nvlpubs.nist.gov
-
OWASP - LLM01: სწრაფი ინექცია - genai.owasp.org
-
დიდი ბრიტანეთის მთავრობა - ხელოვნური ინტელექტის კიბერუსაფრთხოების პრაქტიკის კოდექსი - gov.uk
-
სტანდარტებისა და ტექნოლოგიების ეროვნული ინსტიტუტი (NIST) - SP 800-61 (ინციდენტების მართვის სახელმძღვანელო) - csrc.nist.gov
-
ფედერალური გამოძიების ბიურო (FBI) - FBI აფრთხილებს კიბერდანაშაულების მიერ ხელოვნური ინტელექტის გამოყენების მზარდი საფრთხის შესახებ - fbi.gov
-
ინტერნეტ დანაშაულის შესახებ FBI-ის საჩივრების ცენტრი (IC3) - IC3-ის სოციალური დაზღვევის შესახებ განცხადება ხელოვნური ინტელექტით თაღლითობის/ფიშინგის შესახებ - ic3.gov
-
OpenAI - OpenAI-ის საფრთხის შესახებ ინფორმაციის ანგარიშები (მავნე გამოყენების მაგალითები) - openai.com
-
ევროპოლი - ევროპოლის „ChatGPT ანგარიში“ (არასათანადო გამოყენების მიმოხილვა) - europol.europa.eu
-
მიტრე - მიტრე ატლასი - mitre.org
-
OWASP - OWASP-ის ტოპ 10 LLM აპლიკაციებისთვის - owasp.org
-
ეროვნული უსაფრთხოების სააგენტო (NSA) - ხელოვნური ინტელექტის სისტემის განვითარების უსაფრთხოების სახელმძღვანელო (NSA/CISA/NCSC-UK და პარტნიორები) - nsa.gov
-
Microsoft Learn - Microsoft Sentinel-ის მიმოხილვა - learn.microsoft.com
-
Splunk - Splunk-ის საწარმოს უსაფრთხოება - splunk.com
-
Google Cloud - Google-ის უსაფრთხოების ოპერაციები - cloud.google.com
-
CrowdStrike - CrowdStrike Falcon პლატფორმა - crowdstrike.com
-
Microsoft Learn - Microsoft Defender საბოლოო წერტილისთვის - learn.microsoft.com
-
Palo Alto Networks - Cortex XSOAR - paloaltonetworks.com
-
Wiz - Wiz პლატფორმა - wiz.io
-
Snyk - Snyk პლატფორმა - snyk.io