🧯 OpenAI მზადყოფნის ახალ ხელმძღვანელს დაიქირავებს, რათა ხელოვნური ინტელექტის მიერ მიყენებული ზიანის პროგნოზირება და შემცირება სცადოს ↗
OpenAI-მა გამოაცხადა „მზადყოფნის ხელმძღვანელის“ პოზიცია - არსებითად, ადამიანი, რომელსაც დაევალა სასაზღვრო მოდელების ყველაზე უარესი შესაძლო გამოყენების წარმოსახვა და შემდეგ ისეთი დამცავი ღობეების აგება, რომლებიც ზეწოლის ქვეშ გაუძლებენ (არა მხოლოდ ვიბრაციებისა და პოლიტიკის PDF ფაილების).
ჩამონათვალი სერიოზულად არის ორიენტირებული საფრთხეების მოდელირებაზე, შეფასებასა და შერბილებაზე, როგორც რეალურ ოპერაციულ პროცესზე. ეს არის უსაფრთხოების სამუშაო, რომელიც ჩამოყალიბებულია გადაზიდვის პროგრამული უზრუნველყოფის მსგავსად - ერთი ამოსუნთქვით დამამშვიდებელი, მეორე ამოსუნთქვით ოდნავ დამამშვიდებელი, რადგან ის მიანიშნებს, რომ რისკები ახლა პროდუქტზეა დამოკიდებული.
🧑⚖️ ჩინეთმა ადამიანის მსგავსი ურთიერთქმედების მქონე ხელოვნური ინტელექტის რეგულირების კანონპროექტი წარადგინა ↗
ჩინეთის კიბერმარეგულირებელმა ორგანომ გაავრცელა წესების პროექტი, რომელიც მიმართულია ხელოვნური ინტელექტის სერვისების მიმართ, რომლებიც ადამიანის პიროვნებების სიმულირებას და მომხმარებლების ემოციურად ჩართვას ახდენენ - ლაყბობა თანამგზავრების, ფლირტაობის მოყვარული ასისტენტების და მთელი ამ „ნამდვილი ხარ?“ ზონაში.
ერთი გამორჩეული დეტალი: მომწოდებლებს მოუწევთ გაფრთხილება ჭარბი მოხმარების შესახებ და ჩარევა, თუ მომხმარებლები დამოკიდებულების ან დამოკიდებულების ნიშნებს გამოავლენენ. ეს უჩვეულოდ აშკარად საუბრობს ფსიქოლოგიურ რისკზე - მაგალითად, ვიღაცამ დააკვირდა „ხელოვნური ინტელექტის მეგობრის“ ტენდენციას და გადაწყვიტა, რომ უსაფრთხოების ღვედების გარეშე არა.
🧩 დიდი მადლობა, GPT-5. გამარჯობა, კვენ ↗
Wired-ის ნაშრომის თანახმად, კვენი გულებს იპყრობს არა იმით, რომ ის საუკეთესო მხედარია, არამედ იმით, რომ ღია წონა აქვს და ადვილად დასამუშავებელია - რასაც, პრაქტიკაში, მშენებლები მუდმივად ირჩევენ. ეს არის „ხელსაწყო, რომლის დაჭერაც რეალურად შეგიძლია“ და არა ის, რომელიც ხავერდის თოკის უკანაა.
სტატია ამას უფრო ფართო ცვლილებად წარმოაჩენს: ღია მოდელები, რომლებიც პროდუქტებში მოხერხებულად ინტეგრირდება (და კომპანიის შიგნით იხვეწება), შეიძლება უფრო მნიშვნელოვანი იყოს, ვიდრე ლიდერბორდის მცირე წარმატებები. ოდნავ პიკანტურია, შესაძლოა, დახურული ლაბორატორიების მიმართ ოდნავ არაკეთილსინდისიერი... მაგრამ განწყობა მაინც შეინიშნება.
🎁 OpenAI-სა და Anthropic-ს ხელოვნური ინტელექტის გამოყენების ორმაგი შეზღუდვები დეველოპერებისთვის სადღესასწაულო გაძლიერების ფარგლებში: ყველაფერი, რაც უნდა იცოდეთ ↗
OpenAI-მ და Anthropic-მა დროებით გაზარდეს კოდირებაზე ორიენტირებული ხელსაწყოების გამოყენების ლიმიტი, რამაც ინდივიდუალურ აბონენტებს მეტი შესაძლებლობა მისცა, უფრო მძიმე სამუშაო პროცესები შეესრულებინათ ლიმიტების დაუყოვნებლივ დაწესების გარეშე.
Mint აღნიშნავს, რომ გაძლიერება ორიენტირებულია გამოცდილ მომხმარებლებზე, შემდეგ კი ყველაფერი უბრუნდება წინა მდგომარეობას სარეკლამო ფანჯრის შემდეგ. ეს სასიამოვნო მომენტია, რომელიც „კიდევ უფრო მეტ ენერგიას გთავაზობთ“ - და ასევე მშვიდი შეხსენებაა იმისა, რომ ტევადობა ჯერ კიდევ შეზღუდული, ხელშესახები შეზღუდვაა.
💻 Google DeepMind-ის თანადამფუძნებელი შეინ ლეგი „ლეპტოპის წესს“ ადგენს, რათა განსაზღვროს, შეუძლია თუ არა ხელოვნურ ინტელექტს სამსახურის ჩანაცვლება ↗
შეინ ლეგმა პირდაპირი ევრისტიკა წამოაყენა: თუ სამუშაოს შესრულება მთლიანად ლეპტოპის საშუალებითაა შესაძლებელი (ეკრანი, კლავიატურა, მიკროფონი, კამერა და ა.შ.), ეს ისეთი კოგნიტური სამუშაოა, რომელშიც მოწინავე ხელოვნურ ინტელექტს სულ უფრო მეტად შეუძლია მუშაობა.
მან ასევე ცოტათი შეიკავა თავი - აღნიშნა, რომ ზოგიერთი „სრულად ონლაინ“ ნამუშევარი კვლავ ადამიანურ კავშირებსა და პიროვნებაზეა დამოკიდებული. ასე რომ, დიახ, წესი მკაცრია... მაგრამ ეს გილიოტინა არ არის, უფრო ქარიშხლის გაფრთხილებას ჰგავს.