Вперше штучний інтелект від Google самостійно відтворив критичні помилки у відкритому коді

imagesaislop.jpg
AI-інструмент для пошуку вразливостей від Google, Big Sleep, уперше самостійно виявив і повідомив про 20 помилок у популярному open source програмному забезпеченні. Про це оголосила віцепрезидентка з безпеки Google Гізер Аткінс. Big Sleep - спільна розробка команди DeepMind та експертів Project Zero - відзначився на таких проектах, як мультимедійна бібліотека FFmpeg та графічний редактор ImageMagick, інформує TechCrunch. Деталі щодо впливу та серйозності виявлених вразливостей поки що не розголошують - компанія дотримується стандартної практики й чекає на виправлення помилок. Однак сам факт, що AI-агент знайшов і відтворив помилки без участі людини, вважається важливим проривом. Для підвищення якості та правдивості звітів перед відправленням їх перевіряє експерт, але весь процес виявлення та повторення проблеми - на штучному інтелекті. В Google підкреслюють, що це новий етап розвитку автоматизованих інструментів для пошуку вразливостей. Окрім Big Sleep, у галузі вже діють й інші проєкти - RunSybil, XBOW та інші. XBOW нещодавно очолив американський рейтинг на платформі HackerOne, хоча і тут результати завжди проходять додаткову людську перевірку. Експерти відзначають, що технологія має як великий потенціал, так і ризики. Деякі розробники скаржаться на велику кількість "хибних" звітів - випадків, коли AI виявляє вигадані помилки. Такі ситуації вже отримали неформальну назву "AI slop" у спільноті розробників, а баг-репорти іноді виявляються марними. Попри це, галузь бачить значну перспективу у використанні LLM-інструментів для пошуку вразливостей. В Google зазначають, що впровадження таких технологій може суттєво змінити підходи до безпеки open source проєктів у майбутньому. No worries! 2025.08.08 14:57 https://noworries.news/vpershe-shtuchnyj-intelekt-vid-google-samostijno-...