Недавнеезаявление Cisco о защите ИИ было сделано в то время, как безопасность и конфиденциальность являются одними из основных проблем, стоящих на пути развития ИИ; потенциал того, что технология покончит с человечеством, остается главной проблемой для всех, включая регулирующие органы и правительство. В связи с этим нормативные акты и политика, регулирующие развитие генеративного ИИ, остаются в лучшем случае скудными, что делает шансы его схода с рельсов чрезвычайно высокими.
Исследователь безопасности ИИ и директор Лаборатории кибербезопасности Университета Луисвилля Роман Ямпольский заявил, что вероятность того, что ИИ погубит человечество, составляет 99,999999 %, согласно p(doom), и единственный способ избежать этого – не создавать ИИ вообще. Интересно, что свет в конце тоннеля вроде бы есть.
AI Defense – это сложное решение для защиты разработки и использования приложений на базе ИИ, позволяющее предприятиям безопасно развивать ИИ.
В эксклюзивном интервью Ровану Чунгу (Rowan Cheung) из The Rundown AI исполнительный вице-президент и главный директор по продуктам Cisco Джиту Патель (Jeetu Patel) рассказал о стремительном развитии ИИ и проблемах безопасности и защиты, которые послужили причиной выпуска AI Defense:
«Реальность такова, что в будущем будет два типа компаний: те, кто лидирует с помощью ИИ, и те, кто не имеет к нему отношения. Каждая компания будет использовать – если не разрабатывать – тысячи приложений ИИ, и быстрые темпы развития инноваций в области ИИ опережают основные проблемы безопасности и защиты».
Мы разработали AI Defense для защиты как при разработке, так и при использовании приложений ИИ. В целом AI Defense защищает от неправомерного использования инструментов ИИ, утечки данных и все более изощренных угроз. Мы используем радикальный подход к решению проблем, с которыми не могут справиться существующие решения по безопасности».
AI Defense – это, пожалуй, самое близкое решение для обеспечения безопасности в условиях экзистенциальных угроз технологии. Что еще более тревожно, в отчете Cisco о готовности к использованию ИИ в 2024 году говорится, что только 29% опрошенных чувствуют себя полностью готовыми к обнаружению и предотвращению несанкционированного вмешательства в работу ИИ.
Это может быть связано с тем, что ландшафт ИИ относительно новый и сложный. Кроме того, приложения ИИ являются многомодельными и многооблачными, что делает их более восприимчивыми к атакам безопасности, поскольку они могут быть развернуты на уровне модели или приложения.
Будет ли Cisco следить за развитием AGI?

Запуск решения для обеспечения безопасности пришелся как нельзя кстати, поскольку ведущие лаборатории искусственного интеллекта, включая Anthropic и OpenAI, борются за достижение заветной отметки AGI. Генеральный директор OpenAI Сэм Альтман заявил, что его команда знает, как создать AGI, и что эталон будет достигнут раньше, чем ожидалось, поскольку компания переключает внимание на суперинтеллект.
Несмотря на опасения по поводу безопасности и защиты, Альтман утверждает, что эталонная модель проскочит мимо, оказав на удивление малое влияние на общество. Он добавил, что выраженные опасения по поводу безопасности не будут заметны или ощутимы в момент появления AGI. Однако недавние сообщения указывают на то, что развитие ИИ может упереться в стену из-за нехватки высококачественного контента для обучения моделей. Ключевые игроки отрасли, включая Сэма Альтмана и бывшего генерального директора Google Эрика Шмидта, оспорили эти утверждения, заявив, что нет никаких доказательств того, что законы масштабирования начали тормозить развитие ИИ. «Никакой стены нет, – добавил Альтман.
Хотя AI Defense – это шаг в правильном направлении, его принятие в организациях и крупных лабораториях ИИ еще предстоит увидеть». Интересно, что генеральный директор OpenAI признает угрозу технологии для человечества, но верит, что ИИ будет достаточно умным, чтобы не допустить экзистенциальной гибели.
Комментарии (0)