🏛️ მთავრობა ახალ ლაბორატორიას შექმნის, რათა დიდი ბრიტანეთი ხელოვნური ინტელექტის სფეროში მიღწეული მიღწევების სწრაფ ტემპში შეინარჩუნოს ↗
დიდი ბრიტანეთი მთავრობის მიერ დაფინანსებულ ფუნდამენტურ ხელოვნურ ინტელექტზე ორიენტირებულ კვლევით ლაბორატორიას ქმნის და მას „ცისფერ ცის“ სამუშაოდ მოიხსენიებს - ისეთ სამუშაოდ, რომელიც სარისკოა, ნელია და ზოგჯერ ისე ამართლებს, რომ ყველას ისე აჩენს, თითქოს ჩაეძინათ. ( GOV.UK )
ყურადღება მხოლოდ „უფრო დიდი მოდელები, მეტი გრაფიკული პროცესორი“ არ არის გამახვილებული - ეს ეხება ისეთ მუდმივ ნაკლოვანებებს, როგორიცაა ჰალუცინაციები, მეხსიერების მოკლევადიანი ვარდნა და არაპროგნოზირებადი მსჯელობა, ასევე, მკვლევარებისთვის სერიოზულ გამოთვლებზე წვდომის მიცემას ხელოვნური ინტელექტის კვლევითი რესურსის მეშვეობით. ძალიან გონივრულად ჟღერს... და ასევე, ჩუმად, მცდელობას ჰგავს, შეაჩერონ დიდი ბრიტანეთის საუკეთესო გონების სხვაგან მყისიერად გაძევება. ( GOV.UK )
🧨 Nvidia-ს აღმასრულებელი დირექტორი OpenAI-სა და Anthropic-ში ინვესტიციების დასრულებაზე მიანიშნებს ↗
იენსენ ჰუანგი მიანიშნებს, რომ Nvidia-მ შესაძლოა აღარ გააგრძელოს ინვესტიციების განხორციელება ხელოვნური ინტელექტის მოწინავე ლაბორატორიებში იმავე გზით - IPO დინამიკის (და განხილული შემოწმებების მასშტაბის) გამო, დაფინანსების ამ სტილის განხორციელება უფრო რთული ხდება. ( როიტერი )
ეს ტონალური ცვლილებაა, რომელიც ყურადღების ღირსია: Nvidia მთელი ამ ბუმის „მექანიკური ხერხების“ მეფეა, თუმცა ეს მიანიშნებს, რომ „მაინერების ნაწილების ფლობა“ ყოველთვის აღარ არის პოპულარული. ან იქნებ ეს უბრალოდ ხმამაღლა დაცვაა, რასაც აღმასრულებელი დირექტორები აკეთებენ, სუნთქვის მსგავსად. ( როიტერი )
🧩 ექსკლუზიური: მსხვილი ტექნოლოგიური ჯგუფი მხარს უჭერს Anthropic-ს პენტაგონის ბრძოლაში, რადგან ინვესტორები ხელოვნური ინტელექტის დაცვის საკითხთან დაკავშირებით დაპირისპირების დეესკალაციას ცდილობენ ↗
Anthropic-ის პენტაგონთან დაპირისპირება სრულმასშტაბიან ზეწოლის ქვაბად იქცევა - როგორც ამბობენ, ინვესტორები ტემპერატურის დაწევას ითხოვენ, კომპანია კი ცდილობს უსაფრთხოების ფორმულირებასთან დაკავშირებით პოზიცია შეინარჩუნოს (განსაკუთრებით თვალთვალთან დაკავშირებით). ( როიტერი )
სიუჟეტის ქვეტექსტი თითქმის უფრო ხმამაღალია, ვიდრე თავად ტექსტი: ხელოვნური ინტელექტის ეპოქაში კონტრაქტის ფორმულირება არ არის „იურიდიული წვრილმანების შელახვა“, ეს ძირითადად პროდუქტის პოლიტიკაა - და ის წყვეტს, გახდება თუ არა მოდელი ინსტრუმენტი, იარაღი თუ ფართოდ გავრცელებული პასუხისმგებლობა. ( როიტერი )
🪖 სემ ალტმანი აღიარებს, რომ OpenAI-ს არ შეუძლია პენტაგონის მიერ ხელოვნური ინტელექტის გამოყენების კონტროლი ↗
როგორც ამბობენ, ალტმანმა თანამშრომლებს განუცხადა, რომ OpenAI-ს არ შეუძლია გააკონტროლოს, თუ როგორ იყენებს პენტაგონი თავის ხელოვნურ ინტელექტს მისი განლაგების შემდეგ - რაც ხმამაღლა დარტყმას მოჰყვა, რადგან ის ზუსტად იმ შიშს ასახელებს, რომლის გარშემოც ხალხი ცხოვრობდა. ( The Guardian )
უფრო ფართო ფონი არის უთანხმოების გამწვავება „ჩვენ დაგეხმარებით წესებით“ და „ჩვენ დაგეხმარებით, წერტილი“-ს შორის, პლუს შიდა და საზოგადოებრივი უკმაყოფილება, როდესაც სამხედრო გზით ამ სქემის გამოყენება ნაჩქარევად ან ოპორტუნისტულად ჟღერს. აქ ეთიკა ნაკლებად მოწესრიგებულ სტრიქონს და უფრო მეტად სველი საღებავის დაღვრას გულისხმობს - ყველა ერევა ამაში, შემდეგ კი კამათობს იმაზე, თუ ვისი ფეხსაცმელია. ( The Guardian )
🧬 გენომიკის სფეროში ახალი ხელოვნური ინტელექტის სტიპენდია სენჯერის ინსტიტუტთან და Google DeepMind-თან ↗
Wellcome Sanger Institute იწყებს DeepMind-ის მიერ დაფინანსებულ აკადემიურ სტიპენდიას, რომელიც ორიენტირებულია ხელოვნური ინტელექტის გენომიკაში გამოყენებაზე - რაც ამ კონკრეტულ სფეროში DeepMind-ის სტიპენდიანტებისთვის პირველი ადგილია. ( sanger.ac.uk )
საინტერესოა (და, გულწრფელად რომ ვთქვათ, ცოტა გამამხნევებელიც) გენომიკის ნაკლებად შესწავლილ პრობლემებზე აქცენტირება, სადაც ხელოვნური ინტელექტი უკვე ყველგან არ არის - პლუს აშკარა შენიშვნა, რომ DeepMind არ ხელმძღვანელობს სტიპენდიანტის კვლევას. ეს ჰგავს ვინმეს რაკეტის მიცემას და იმის თქმას, რომ „წადი და რამე აღმოაჩინე“, იმის ნაცვლად, რომ „წადი და ოპტიმიზაცია გაუკეთე ჩვენს გზამკვლევს“ ( sanger.ac.uk )
ხშირად დასმული კითხვები
რას წარმოადგენს დიდი ბრიტანეთის მთავრობის მიერ დაფინანსებული ფუნდამენტური ხელოვნური ინტელექტის კვლევის ლაბორატორია და რას გააკეთებს ის?
მთავრობის მიერ მხარდაჭერილი ფუნდამენტური ხელოვნური ინტელექტის კვლევის ლაბორატორია პოზიციონირდება, როგორც „ცისფერი ცის“ კვლევითი პროექტი - მაღალი რისკის მქონე სამუშაო, რომლის ანაზღაურებასაც შეიძლება დრო დასჭირდეს. მხოლოდ უფრო დიდი მოდელების მასშტაბირებაზე კონცენტრირების ნაცვლად, მისი მიზანია ისეთი მუდმივი პრობლემების მოგვარება, როგორიცაა ჰალუცინაციები, მეხსიერების მოკლე ხანგრძლივობა და არაპროგნოზირებადი მსჯელობა. არსი იმაში მდგომარეობს, რომ მიღწევები ფუნდამენტური პრინციპებიდან მოდის და არა მხოლოდ მეტი გრაფიკული პროცესორის დამატებით.
როგორ შეუძლია დიდი ბრიტანეთის ფუნდამენტური ხელოვნური ინტელექტის კვლევის ლაბორატორიას დაეხმაროს მკვლევარებს სერიოზულ გამოთვლით ტექნოლოგიებზე წვდომაში?
დიდი ბრიტანეთის ფუნდამენტური ხელოვნური ინტელექტის კვლევის ლაბორატორიასთან ერთად, გეგმა ხაზს უსვამს ხელოვნური ინტელექტის კვლევის რესურსის მეშვეობით მნიშვნელოვან გამოთვლით მონაცემებზე წვდომას. პრაქტიკაში, ეს ნიშნავს, რომ მკვლევარებს შეუძლიათ ჩაატარონ ექსპერიმენტები, რომლებიც სხვა შემთხვევაში შეზღუდული იქნებოდა ხარჯებით ან ინფრასტრუქტურით. ეს ასევე საშუალებას აძლევს გუნდებს გამოსცადონ იდეები ისეთი მასშტაბით, სადაც ისეთი პრობლემები, როგორიცაა საიმედოობა და სიმტკიცე, კონკრეტული ხდება და არა მხოლოდ თეორიული.
რატომ აქცევს დიდი ბრიტანეთი აქცენტს ჰალუცინაციებზე, მოკლე მეხსიერებასა და არაპროგნოზირებად მსჯელობაზე?
ეს სისუსტეები დანერგვისას იჩენს თავს და სწრაფად ძირს უთხრის ნდობას. აღნიშნული ფოკუსი იმაზე მიუთითებს, რომ მიზანი არა მხოლოდ შესაძლებლობებია, არამედ საიმედოობაც - ხელოვნური შედეგების შემცირება, მოდელების მიერ უფრო ვრცელი კონტექსტის დამუშავების გაუმჯობესება და მსჯელობის ნაკლებად არასტაბილურობის უზრუნველყოფა. ამ ტიპის სამუშაო ხშირად უფრო ნელი და სარისკოა, სწორედ ამიტომ განიხილება, როგორც ფუნდამენტური კვლევა.
რას მიანიშნებს სინამდვილეში Nvidia-ს ტონის ცვლილება OpenAI-სა და Anthropic-ში ინვესტირებასთან დაკავშირებით?
ანგარიშში ეს მინიშნებაა იმისა, რომ Nvidia-მ შესაძლოა აღარ განაგრძოს ინვესტიციების განხორციელება მოწინავე ლაბორატორიებში იმავე გზით, განსაკუთრებით იმის გათვალისწინებით, რომ IPO-ს დინამიკა და ჩეკების უზარმაზარი ოდენობა ამ სტრატეგიას ართულებს. მიუხედავად იმისა, რომ ხელოვნური ინტელექტის აპარატურის „გადაწყვეტილების“ ლიდერია, ეს იმაზე მიუთითებს, რომ საკუთრების წილები ყოველთვის არ არის საუკეთესო ვარიანტი. ეს ასევე შეიძლება იყოს ფრთხილი შეტყობინებები, რაც აღმასრულებელი დირექტორების კომენტარებში ხშირია.
რატომ არის Anthropic-ის პენტაგონის დავა „დაცვის ენის“ შესახებ ასეთი მნიშვნელოვანი საკითხი?
სტატიის მთავარი აზრი ის არის, რომ კონტრაქტის ფორმულირება შეიძლება პროდუქტის პოლიტიკად იქცეს - განსაკუთრებით მაშინ, როდესაც ის მეთვალყურეობას და სხვა მგრძნობიარე მიზნებს ეხება. როგორც ამბობენ, ინვესტორები კონფლიქტის დეესკალაციას ცდილობენ, კომპანია კი უსაფრთხოების ზომების დაცვას ცდილობს. ხელოვნური ინტელექტის მრავალ დანერგვაში ეს პუნქტები განსაზღვრავს, თუ რისთვის შეიძლება სისტემის გამოყენება და რა რისკებს იღებს კომპანია ეფექტურად.
რას ნიშნავს, როდესაც სემ ალტმანი ამბობს, რომ OpenAI-ს არ შეუძლია გააკონტროლოს, თუ როგორ იყენებს პენტაგონი ხელოვნურ ინტელექტს?
ის პრაქტიკულ შეზღუდვას აღწერს: ინსტრუმენტის დანერგვის შემდეგ, თავდაპირველ შემქმნელს შეიძლება შეზღუდული ჰქონდეს შემდგომი გამოყენების მართვის უნარი. ეს მნიშვნელოვანი ფაქტორია, რადგან ის მიუთითებს ძირითად შიშზე, რომელსაც ადამიანები სამხედრო სფეროში გამოყენების შესახებ გამოთქვამენ - წესები შეიძლება არსებობდეს კონტრაქტის ეტაპზე, მაგრამ აღსრულება შეიძლება რთული იყოს. ეს ასევე ასახავს უფრო ფართო დაძაბულობას „დახმარება შეზღუდვებით“ და „დახმარება, მიუხედავად ამისა“-ს შორის