🌍 OpenAI ცდილობს გაზარდოს ხელოვნური ინტელექტის გამოყენება ყოველდღიურ ცხოვრებაში გლობალურად ↗
OpenAI უფრო „ქვეყნებზე ორიენტირებულ“ დანერგვის კამპანიას უჭერს მხარს - წინადადება: შეწყვიტეთ ხელოვნური ინტელექტის ლაბორატორიული სათამაშოვით მოპყრობა და დაიწყეთ მისი იმ საჯარო სერვისებში ჩართვა, რომლებსაც ადამიანები ყოველდღიურად ეხებიან.
რამდენიმე მაგალითი, რომელიც მოყვანილია, მოიცავს განათლების სფეროში განლაგებას (წარმოიდგინეთ: ChatGPT-ის სტილის ინსტრუმენტები, რომლებიც ფართო მასშტაბით გამოიყენება), პლუს პრაქტიკულ სისტემებზე მუშაობას, როგორიცაა წყალთან დაკავშირებული კატასტროფების ადრეული გაფრთხილებები. ეს არის ძალიან „ეს უნდა იყოს ჩუმად პრაქტიკული“ გზავნილი, რომელიც ძალიან მომწონს... მაშინაც კი, თუ ეს ასევე, მოგეხსენებათ, ბიზნეს სტრატეგიაა.
⚡ OpenAI ვარსკვლავური კარიბჭისთვის ენერგიის ხარჯებს შეამცირებს ↗
OpenAI აცხადებს, რომ დაფარავს Stargate-ის მონაცემთა ცენტრის მშენებლობასთან დაკავშირებულ ენერგიის ხარჯებს, რითაც ამტკიცებს, რომ არ სურს ადგილობრივი ელექტროენერგიის ფასების გაზრდა ყველასთვის.
ეს შეიძლება ნიშნავდეს ახალი ენერგომომარაგების სიმძლავრეების, შენახვის, გადაცემის განახლებების ან სხვა ინფრასტრუქტურის დაფინანსებას, რაც ქსელს დატვირთვის ქვეშ კვნესისგან იცავს. ეს ნაწილობრივ კეთილი მოქალაქის პოზიციაა, ნაწილობრივ კი პრევენციული პოლიტიკა - ორივე რამ შეიძლება ერთდროულად სიმართლე იყოს, რაც გამაღიზიანებელია.
🎧 OpenAI-ს პირველი მოწყობილობის გამოშვება 2026 წელს სურს და შესაძლოა, ეს ყურსასმენები იყოს ↗
OpenAI აპარატურის შესახებ ჭორები სულ უფრო და უფრო ვრცელდება და ამ ვერსიაში ნათქვამია, რომ პირველი მოწყობილობა შეიძლება იყოს ყურსასმენები - „ხელოვნური ინტელექტისადმი პირველი“ ორიენტირებული გაჯეტი, რომელსაც ატარებთ და არა უბრალოდ აპლიკაცია, რომელსაც ხსნით.
არსებობს საუბრები კოდურ სახელზე („Sweet Pea“) და აგრესიულ სილიკონის ამბიციებზე, სადაც მეტი დამუშავება ხდება მოწყობილობაზე, ღრუბელში მუდმივად გადასვლის ნაცვლად. ყურსასმენების გამოყენების ჩვევების შეცვლა ჰგავს მდინარის კოვზით გადამისამართების მცდელობას... მაგრამ, უფრო ველურმა პროდუქტებმა გაამართლა.
📜 ანთროპიკის ახალი კლოდის „კონსტიტუცია“: იყავით დამხმარე და პატიოსანი და ნუ გაანადგურებთ კაცობრიობას ↗
Anthropic-მა გამოაქვეყნა განახლებული „კლოდის კონსტიტუცია“ - არსებითად, ღირებულებებისა და ქცევის გეგმა, რომელიც მიზნად ისახავს კლოდის რეაგირების, მსჯელობისა და უარის თქმის ფორმის ჩამოყალიბებას.
ის უფრო მკვეთრ საზღვრებს აწესებს ნამდვილად საშიში რაღაცეების გარშემო (იარაღი, მასშტაბური ზიანი, ძალაუფლების ხელში ჩაგდება, საშინელი უდიდესი დარტყმები), ამასთანავე, მკაცრი წესების ნაცვლად, უფრო ნიუანსირებულ „პრინციპებს“ ეყრდნობა. ერთი გასაკვირი პიკანტური დეტალი: ის ღიად გამოთქვამს გაურკვევლობას იმის შესახებ, შეიძლება თუ არა განვითარებული ხელოვნური ინტელექტი მორალურ განხილვას იმსახურებდეს - არ ამტკიცებს, რომ ასეა, უბრალოდ საკითხს რეალურ მდგომარეობად განიხილავს.
🛡️ Google Workspace for Education-ის ახალი უსაფრთხოებისა და ხელოვნური ინტელექტის ამოცნობის ფუნქციები ↗
Google-მა გამოაცხადა Workspace for Education-ის ახალი უსაფრთხოების ფუნქციები, რომლებიც მნიშვნელოვან ყურადღებას ამახვილებს ხელოვნური ინტელექტის მიერ გენერირებული კონტენტის აღმოჩენასა და ვერიფიკაციაზე, რადგან სკოლაში გავრცელებული დეზინფორმაცია ბრჭყვიალასავით ვრცელდება და არასდროს შორდება საფუძველს.
ერთ-ერთი მნიშვნელოვანი ასპექტია Gemini აპლიკაციაში ხელოვნური ინტელექტის მიერ გენერირებული სურათებისა და ვიდეოების SynthID-თან დაკავშირებული ვერიფიკაცია, უფრო ძლიერ დაცვასთან ერთად, როგორიცაა გამოსასყიდის მოთხოვნის აღმოჩენის შესაძლებლობა და დესკტოპზე Drive-ისთვის ფაილების უფრო მარტივი აღდგენა. ეს სერიოზული უსაფრთხოების სამუშაოსა და „გთხოვთ, ენდეთ ჩვენს საკლასო ოთახებში“-ს ნაზავია, რაც... სიმართლე გითხრათ, სამართლიანია.
🚫 Google DeepMind-ის აღმასრულებელი დირექტორი კიდევ ერთხელ ადასტურებს, რომ Gemini-ს რეკლამების განთავსების გეგმები არ აქვს და გაკვირვებულია, რომ ChatGPT-მ ისინი „ასე ადრე“ დაამატა ↗
DeepMind-ის დემის ჰასაბისმა კიდევ ერთხელ გაიმეორა, რომ Gemini-ს რეკლამების განთავსების გეგმები არ აქვს და ცოტა გაკვირვებული ჩანდა, რომ ChatGPT რეკლამებზე „ასე ადრე“ გადავიდა
ეს სუფთა პოზიციონირების ნაბიჯია - ასისტენტი, როგორც პროდუქტი და არა ასისტენტი, როგორც ბილბორდი. ამასთან, „გეგმები არ მაქვს“ კორპორაციულად ნიშნავს „მოგვიანებით კიდევ მკითხე“, ასე რომ... ვნახოთ, რამდენად მყარი აღმოჩნდება ეს დაპირება.
🏛️ ახალი სახელმძღვანელო პრინციპები დიდ ბრიტანეთს ხელოვნური ინტელექტის ეფექტურად და პასუხისმგებლობით რეგულირებაში დაეხმარება ↗
ალან ტურინგის ინსტიტუტმა გამოაქვეყნა მარეგულირებელი შესაძლებლობების ჩარჩო და თვითშეფასების ინსტრუმენტი, რომელიც მიზნად ისახავს დიდი ბრიტანეთის მარეგულირებლებს დაეხმაროს იმის შეფასებაში, არიან თუ არა ისინი აღჭურვილი ხელოვნური ინტელექტის ზედამხედველობისთვის.
ეს ძალიან არასერიოზულია - საკონტროლო სიები, შესაძლებლობების ფაქტორები, „როგორ გამოიყურება კარგი“ განცხადებები - მაგრამ საქმე ამაშია. რეალური მმართველობა, როგორც წესი, ბასრი კიდეებით დაფარულ დოკუმენტაციას ჰგავს და არა უაზრო საკვანძო მოხსენებებს... ან ასე ჩანს.
ხშირად დასმული კითხვები
რა არის OpenAI-ის „ქვეყნებზე ორიენტირებული“ მცდელობა, გაზარდოს ხელოვნური ინტელექტის გამოყენება ყოველდღიურ ცხოვრებაში გლობალურად?
ეს ხელოვნური ინტელექტის დამოუკიდებელ პროდუქტად მიჩნევისგან თავის დაღწევასა და მის იმ საჯარო სერვისებში ინტეგრირებაზე გადასვლას გულისხმობს, რომლებსაც ადამიანები ყოველდღიურად ეყრდნობიან. მიზანია ხელოვნური ინტელექტის პრაქტიკულ, ხშირად გამოყენებად სისტემებში ინტეგრირება და არა „ლაბორატორიულ“ დემონსტრაციებში დატოვება. მოყვანილი მაგალითებია ფართომასშტაბიანი საგანმანათლებლო დანერგვა და საზოგადოებისთვის განკუთვნილი უსაფრთხოების ინსტრუმენტები. ის წარმოდგენილია, როგორც ჩუმად სასარგებლო, მიუხედავად იმისა, რომ ის მხარს უჭერს OpenAI-ის უფრო ფართო დანერგვის სტრატეგიას.
როგორ შეიძლება OpenAI-ის გეგმა გამოჩნდეს საჯარო სერვისებში, როგორიცაა განათლება ან კატასტროფებზე რეაგირება?
განათლებაში კონცეფცია ChatGPT-ის სტილის ინსტრუმენტების მასშტაბურად გამოყენებაა, რათა სკოლებს შეეძლოთ ხელოვნური ინტელექტის ჩართვა რუტინულ სასწავლო პროცესებში. კატასტროფებზე რეაგირების კუთხით, OpenAI-მ წყალთან დაკავშირებული ადრეული გაფრთხილების სისტემები „ჩუმად პრაქტიკული“ ინფრასტრუქტურის მაგალითად გამოყო. საერთო ძაფი დახმარების მიწოდებაა საჭიროებისამებრ, არსებულ სერვისებში ჩაშენებული ინსტრუმენტებით. წარმატება, სავარაუდოდ, დამოკიდებული იქნება საიმედოობაზე, ზედამხედველობასა და დასაბუთებულ ინტეგრაციაზე.
რატომ თქვა OpenAI-მ, რომ Stargate-ის მონაცემთა ცენტრის მშენებლობისთვის ენერგიის ხარჯებს დაფარავს?
OpenAI-მა ეს განმარტა, როგორც მცდელობა, არ გაეზარდა ადგილობრივი ელექტროენერგიის ფასები ქსელში უზარმაზარი ახალი მოთხოვნის გაზრდით. ხარჯების დაფარვა შეიძლება მოიცავდეს ახალი სიმძლავრეების დაფინანსებას, შენახვას, გადაცემის განახლებას ან სხვა ინფრასტრუქტურას, რომელიც შეამსუბუქებს დატვირთვას. ეს პოზიციონირებულია როგორც კეთილმეზობლური ნაბიჯი, ასევე პოლიტიკური და საზოგადოებრივი წინააღმდეგობის თავიდან აცილების საშუალება. პრაქტიკაში, ეს მიანიშნებს, რომ ენერგეტიკულ ზემოქმედებას ახლა ცენტრალური ადგილი უჭირავს ხელოვნური ინტელექტის მასშტაბირების გეგმებში.
რა არის უახლესი ჭორები OpenAI აპარატურასთან დაკავშირებით - ნამდვილად შესაძლებელია თუ არა „ხელოვნური ინტელექტით უზრუნველყოფილი“ ყურსასმენების გამოყენება?
ანგარიშში ნათქვამია, რომ OpenAI-ს პირველი მოწყობილობის გამოშვება 2026 წელს სურს, რომლის პოტენციური ფორმა-ფაქტორიც ყურსასმენები იქნება. კონცეფცია წარმოადგენს „ხელოვნური ინტელექტის“ მატარებელ მოწყობილობას, რომელსაც განუწყვეტლივ გამოიყენებთ და არა მხოლოდ აპლიკაციას, რომელსაც გახსნით. არსებობს საუბრები კოდურ სახელწოდებაზე („Sweet Pea“) და ამბიციებზე, რომ მოწყობილობაზე მეტი დამუშავება განხორციელდეს, ვიდრე მთლიანად ღრუბელზე იყოს დამოკიდებული. ამ მიდგომამ, დანერგვის მიხედვით, შესაძლოა ურთიერთქმედება უფრო სწრაფი და კონფიდენციალური გახადოს.
რა არის ანთროპიკის განახლებული „კლოდის კონსტიტუცია“ და რას ცვლის ის?
ეს არის გამოქვეყნებული ღირებულებებისა და ქცევის გეგმა, რომელიც შექმნილია იმის დასადგენად, თუ როგორ პასუხობს კლოდი, როგორ ამართლებს და როგორ უარყოფს მას მოთხოვნებს. განახლება ხაზს უსვამს უფრო მკვეთრ საზღვრებს ჭეშმარიტად საშიში სფეროების გარშემო, როგორიცაა იარაღი, მასშტაბური ზიანი და ძალაუფლებისკენ სწრაფვა. ის ასევე იხრება უფრო ნიუანსირებული „პრინციპების“კენ მკაცრი წესების ნაცვლად. აღსანიშნავია, რომ ის მოწინავე ხელოვნური ინტელექტის მორალური განხილვის საკითხს ღია საკითხად განიხილავს და არა გადაწყვეტილ პრეტენზიად.
რა ახალი უსაფრთხოებისა და ხელოვნური ინტელექტის ამოცნობის ფუნქციები დაამატა Google-მა Workspace for Education-ს?
Google-მა გამოაცხადა Workspace for Education-ის უფრო ძლიერი დაცვის შესახებ, მათ შორის ხელოვნური ინტელექტის მიერ გენერირებული კონტენტის აღმოჩენასა და ვერიფიკაციაზე ფოკუსირებით. ერთ-ერთი მნიშვნელოვანი ფაქტორია Gemini აპლიკაციაში ხელოვნური ინტელექტის მიერ გენერირებული სურათებისა და ვიდეოების SynthID-თან დაკავშირებული ვერიფიკაცია. განახლება ასევე ახსენებს გამოსასყიდის მოთხოვნის აღმოჩენის და დესკტოპზე Drive-ისთვის ფაილების აღდგენის გამარტივებას. საერთო ჯამში, ის პოზიციონირებულია, როგორც საკლასო ოთახზე ორიენტირებული უსაფრთხოების სამუშაო, რომელიც მიზნად ისახავს სკოლებს დაეხმაროს დეზინფორმაციისა და ინციდენტების უფრო ეფექტურად მართვაში.
აჩვენებს თუ არა Google-ის Gemini რეკლამებს და რატომ გააკეთა DeepMind-მა კომენტარი ChatGPT-ის მათ დამატებაზე?
DeepMind-ის აღმასრულებელმა დირექტორმა დემის ჰასაბისმა კიდევ ერთხელ გაიმეორა, რომ Gemini-ს რეკლამებთან დაკავშირებით „გეგმები არ აქვს“ და გაკვირვება გამოთქვა, რომ ChatGPT-მა რეკლამებზე „ასე ადრე“ გადაინაცვლა. ეს შეტყობინებები Gemini-ს ასისტენტად, როგორც პროდუქტად წარმოაჩენს და არა ასისტენტად, როგორც ბილბორდს. ამავდროულად, „გეგმების არარსებობა“ სამომავლო ცვლილებებისთვის ადგილს ტოვებს სავალდებულო დაპირების გარეშე. მომხმარებლებისთვის ეს ხაზს უსვამს მომხმარებლის ხელოვნური ინტელექტის ასისტენტების ბიზნეს მოდელის ახალ გაყოფილებას.
რა დანიშნულება აქვს ალან ტურინგის ინსტიტუტის ხელოვნური ინტელექტის მარეგულირებელი შესაძლებლობების ჩარჩოს?
ეს არის მარეგულირებელი შესაძლებლობების ჩარჩო და თვითშეფასების ინსტრუმენტი, რომელიც მიზნად ისახავს გაერთიანებული სამეფოს მარეგულირებლებს დაეხმაროს შეაფასონ, არიან თუ არა ისინი აღჭურვილნი ხელოვნური ინტელექტის ეფექტურად ზედამხედველობისთვის. მიდგომა განზრახ არამომხიბვლელია: საკონტროლო სიები, შესაძლებლობების ფაქტორები და „როგორ გამოიყურება კარგი“ განცხადებები. მიზანია მმართველობის ოპერატიული გახადოს და არა მხოლოდ ამბიციური. ის ყველაზე სასარგებლოა მარეგულირებლებისა და პოლიტიკის გუნდებისთვის, რომლებსაც აღსრულების ან ზედამხედველობის გაძლიერებამდე უნდა გამოავლინონ ხარვეზები.