AI-інструмент для пошуку вразливостей від Google, Big Sleep, уперше самостійно виявив і повідомив про 20 помилок у популярному open source програмному забезпеченні. Про це оголосила віцепрезидентка з безпеки Google Гізер Аткінс. Big Sleep - спільна розробка команди DeepMind та експертів Project Zero - відзначився на таких проектах, як мультимедійна бібліотека FFmpeg та графічний редактор ImageMagick, інформує TechCrunch.
Деталі щодо впливу та серйозності виявлених вразливостей поки що не розголошують - компанія дотримується стандартної практики й чекає на виправлення помилок. Однак сам факт, що AI-агент знайшов і відтворив помилки без участі людини, вважається важливим проривом. Для підвищення якості та правдивості звітів перед відправленням їх перевіряє експерт, але весь процес виявлення та повторення проблеми - на штучному інтелекті.
В Google підкреслюють, що це новий етап розвитку автоматизованих інструментів для пошуку вразливостей. Окрім Big Sleep, у галузі вже діють й інші проєкти - RunSybil, XBOW та інші. XBOW нещодавно очолив американський рейтинг на платформі HackerOne, хоча і тут результати завжди проходять додаткову людську перевірку.
Експерти відзначають, що технологія має як великий потенціал, так і ризики. Деякі розробники скаржаться на велику кількість "хибних" звітів - випадків, коли AI виявляє вигадані помилки. Такі ситуації вже отримали неформальну назву "AI slop" у спільноті розробників, а баг-репорти іноді виявляються марними.
Попри це, галузь бачить значну перспективу у використанні LLM-інструментів для пошуку вразливостей. В Google зазначають, що впровадження таких технологій може суттєво змінити підходи до безпеки open source проєктів у майбутньому.
No worries! 2025.08.08 14:57
https://noworries.news/vpershe-shtuchnyj-intelekt-vid-google-samostijno-...