
В скором времени iPhone может получить поддержку протокола Model Context Protocol, что может сделать сторонние инструменты искусственного интеллекта более полезными на продуктах Apple, чем когда-либо прежде.
В понедельник Apple выложила первую бета-версию iOS 26.1 для разработчиков. Код из этой программы указывает на то, что Apple работает над реализацией поддержки протокола Model Context Protocol, или сокращенно MCP.
В двух словах, MCP позволяет системам искусственного интеллекта получать доступ и взаимодействовать с нужными им данными через универсальный протокол, а не полагаться на собственные реализации для каждого источника данных.
Протокол Model Context Protocol был предложен компанией Anthropic, но с тех пор его используют ведущие ИИ-компании, такие как OpenAI и Google. Судя по первой бета-версии iOS 26.1 для разработчиков, Apple станет последним технологическим гигантом, внедрившим поддержку MCP.
Siri и MCP
Внедрив поддержку Model Context Protocol, Apple сделает возможным взаимодействие сторонних систем искусственного интеллекта с приложениями для iPhone, iPad и Mac. Что касается того, как это будет работать, то система App Intents от Apple предлагает ценную информацию.
С помощью App Intents Siri может выполнять действия в приложениях, такая же возможность появилась и в приложении Apple Shortcuts. Apple работает над улучшением этой системы, и, как ожидается, эти улучшения приведут к долгожданному обновлению Siri.
Согласно документации для разработчиков, выпущенной Apple, разработчики могут протестировать систему намерений приложений, чтобы сделать экранный контент доступным для Siri и Apple Intelligence. Проще говоря, это означает, что пользователи смогут отправлять искусственному интеллекту для разбора все, что активно на экране.
Возможно, однажды Siri сможет отвечать на вопросы о веб-странице на экране или редактировать фотографии, а затем отправлять их по запросу пользователя. Ассистент может получить возможность добавлять комментарии к постам в Instagram или добавлять товары в онлайн-корзину, не прикасаясь к дисплею.
Если Apple реализует протокол Model Context Protocol, как это, очевидно, планируется, это позволит сторонним инструментам взаимодействовать с приложениями таким же образом. Теоретически это означает, что пользователи смогут попросить ChatGPT от OpenAI выполнить действия в приложении на iPhone, iPad и Mac.
Однако есть и другое потенциальное применение: MCP также может позволить Siri собирать больше данных из Интернета. Предыдущие СЛУХИ говорили о том, что поисковые функции Siri будут реализованы в базовых моделях Apple.
Планы Apple по обновлению Siri
Согласно слухам, появившимся в сентябре 2025 года, Apple планирует внедрить функцию веб-поиска, за которую будут отвечать базовые модели Apple. Предположительно, она сможет обращаться к Google Gemini, чтобы расширить возможности Siri по сбору и обобщению информации.
Ожидается, что Siri получит обновление на основе приложений-интентов в начале 2026 года.
Новая Siri якобы будет состоять из трех основных компонентов: планировщика, оператора поиска и обобщающего анализатора. В качестве планировщика и оператора поиска будет выступать модель Apple Foundation Model, поскольку она подразумевает работу с персональными данными устройства.
Получение данных из Интернета и их обобщение может быть возложено на модель Google. По имеющимся сведениям, Google предоставила версию Gemini, которая работает в частном облачном вычислении и помогает выполнять роль инструмента для обобщения веб-данных.
Теоретически, поддержка MCP на iOS может позволить Google Gemini делать на iPhone гораздо больше, чем просто предоставлять результаты поиска. Одним из возможных вариантов являются действия в приложениях сторонних разработчиков.
Ранее Apple обещала, что Siri сможет выполнять расширенные задачи в приложениях, но запланированное обновление было отложено. Если позволить сторонним инструментам делать то же самое, это станет временным решением и предоставит потребителям большую свободу выбора.
В то же время MCP может позволить Siri получать информацию из Интернета, не полагаясь на Google Gemini или другие продукты искусственного интеллекта. Это связано с тем, что MCP – протокол, позволяющий системам искусственного интеллекта получать доступ к данным из различных источников.
MCP может сделать возможным выполнение Siri или сторонним ИИ продвинутых действий в приложениях на iOS.
В настоящее время Siri может выполнять только базовый веб-поиск с сохранением конфиденциальности, когда ей нужна информация. Более сложные задачи передаются ChatGPT, разумеется, с согласия пользователя.
В итоге создается впечатление, что Apple стремится сотрудничать с компаниями, занимающимися разработкой искусственного интеллекта, а не создавать свой продукт. Такой подход, пожалуй, уникален, и он может способствовать значимому развитию, предлагая пользователям множество вариантов ИИ.
Дебют обновленной Siri ожидается весной 2025 года, скорее всего, вместе с обновлением iOS 26.4.