Искусственный интеллект в организации
Дата: 16.06.2025

Готовы ли вы опередить конкурентов и вывести свой продукт на новый уровень? Искусственный интеллект (ИИ) быстро становится ценным партнером для Scrum-мастеров (Scrum Master, SM), командных коучей (Team Coach, TC) и владельцев продукта (Product Owner, PO), во многих сферах ответственности, особенно в условиях растущей сложности координации нескольких команд и Agile Release Train (ART).
Из статьи вы узнаете как Scrum-мастерам, коучам команд и владельцам продукта использовать техники создания запросов, про преимущества инструментов с поддержкой ИИ и про то, как выявлять риски, связанные с ИИ и избегать их. Все это поможет получить наилучшие результаты от инструментов ИИ.
Содержание
Скрам-мастера и коучи команд
ИИ может помочь работать более эффективно, создавая идеи на основе данных, автоматизируя рутинные задачи, отслеживая здоровье команды и поддерживая непрерывное совершенствование. ИИ не заменяет человека, скорее как экзоскелет повышает возможности человека в лидерстве, коучинге и фасилитации в Agile на масштабе.
Владельцы продукта
Инструменты с поддержкой искусственного интеллекта помогут вам установить контакт с заказчиком, управлять бэклогом команды и приоритезировать его, а также получать обратную связь, сокращая время на выполнение повторяющихся задач.
Подходящие инструменты ИИ позволяют SM/TC/PO сосредоточиться на создании высокопроизводительных команд и более быстром создании ценности.
ИИ-компетенция в SAFe®
Стать компанией, ориентированной на ИИ, означает нечто большее, чем просто использовать инструменты ИИ. Это означает, что ИИ становится основным компонентом организации работы. Используя ИИ в различных областях деятельности, компании могут внедрять инновации, оставаться гибкими и быстро реагировать на изменение потребностей рынка и клиентов.
SAFe® (Scaled Agile Framework®) определяет три аспекта компетенции в области ИИ, которые должны использовать предприятия, чтобы использовать на практике преимущества искусственного интеллекта:
- Усиление сотрудников через ИИ.
- Решения с поддержкой ИИ.
- Ответственный ИИ
Усиление сотрудников через ИИ
Первая компетенция ИИ в SAFe — усиление сотрудников через ИИ — фокусируется на обеспечении ролей в SAFe инструментами ИИ, которые поддержат выполнение их работы. Инструменты генеративного ИИ могут быть полезны во многих аспектах работы по SAFe. Они могут обеспечить следующую поддержку:
- Ускорить процессы.
- Сократить время выполнения повторяющихся задач.
- Поддержать мозговой штурм и решение проблем.
Решения с поддержкой ИИ
Вторая ИИ-компетенция в SAFe направлена на оказание поддержки организациям в разработке их собственных решений с ИИ. Она включает в себя:
- Усиление Agile-команд с помощью ИИ.
- Включение ИИ-процессов в SAFe.
- Выбор инструментов и платформ ИИ.
Ответственный ИИ
Третья ИИ-компетенция в SAFe направлена на снижение рисков, связанных с использованием и разработкой ИИ, через три аспекта ответственного ИИ. Решения с ответственным ИИ:
- Надежные и заслуживающие доверия.
- Объяснимые.
- Человекоцентричные.
Профессиональное использование в обычной работе
Сотрудники, работающие по SAFe, все чаще используют инструменты искусственного интеллекта в своей повседневной практике. Существует множество различных инструментов ИИ, которые вы можете использовать в работе. Тем не менее, как правило, эти инструменты делятся на две категории:
- генеративный ИИ, использующий большие языковые модели (Large Language Model, LLM);
- программное обеспечение со встроенными функциями ИИ.
Генеративный ИИ
Генеративный ИИ, использующий LLM, такой как SAFe CoPilot, ChatGPT, Claude и другие, может помочь вам получить доступ к знаниям с помощью понятных запросов. Инструменты на основе LLM могут отвечать на вопросы, систематизировать информацию, анализировать данные и создавать контент на основе ваших конкретных запросов.
Некоторые примеры генеративного ИИ:
Генерация текста и чат-боты
|
---|
SAFeCoPilot
|
ChatGPT
|
Claude
|
Генерация изображений
|
---|
Midjourney
|
DALL-E
|
Stable Diffusion
|
Генерация изображений
|
---|
Midjourney
|
DALL-E
|
Stable Diffusion
|
SAFe CoPilot
SAFe CoPilot — это LLM, обученная специально по руководству SAFe, которая может помочь вам в вашей практике, предоставляя самые актуальные и точные ответы на ваши вопросы, относящиеся к SAFe.
SAFe CoPilot предоставляет:
- Индивидуальное руководство: вы можете обратиться за конкретной консультацией по практикам и концепциям SAFe.
- Быстрый доступ к информации: вы можете задавать вопросы и получать немедленные ответы в соответствии с SAFe-руководством.
- Поддержка сотрудничества: вы можете обратиться за помощью в проведении обсуждений. SAFe CoPilot может предоставить идеи, которые улучшат общение между членами команды.
Программное обеспечение со встроенными функциями ИИ
Вы также можете использовать инструменты со встроенными функциями искусственного интеллекта. Эти инструменты могут выполнять такие задачи, как распознавание закономерностей, помощь в принятии решений, обучение на основе данных или общение с пользователями. В повседневной жизни вы можете столкнуться с программным обеспечением со встроенным ИИ в устройствах для умного дома, поисковых системах в Интернете или чат-ботах для обслуживания клиентов.
На работе вы можете использовать инструменты со встроенными функциями ИИ для:
Управления жизненным циклом Agile
|
---|
JiraAlign
|
Rally
|
Targetprocess
|
Сервисы
для клиентов |
---|
TIDIO
|
Hiver
|
Zendesk
|
Управление
проектами |
---|
Asana
|
Notion
|
monday.com
|
Автоматизация
|
---|
Zapier
|
Power Automate
|
Make
|
Если вы дочитали до этого места, значит, вам интересен полезный контент о современных методах управления. Чтобы узнавать про новые статьи, видео и бесплатные мероприятия, вступайте в сообщество SAFe® Russia.
Риски использования ИИ
При использовании ИИ важно осознавать присущие ему риски, чтобы иметь возможность использовать его в соответствии с принципами SAFe и ценностями вашей организации. Тремя наиболее распространенными рисками, связанными с ИИ, являются:
- Предвзятость.
- Галлюцинация.
- Утечка данных.
Предвзятость
Предвзятость ИИ возникает, когда он выдает результаты, отражающие предубеждения человека, которые обычно отражают предрассудки общества. Предвзятость может возникать на многих этапах разработки ИИ, включая:
Сбор данных
Маркировка данных
Люди помечают информацию, используя субъективные измерения, которые приводят к неточным или разнообразным обозначениям.
Модель обучения
Развертывание
Примеры предвзятого отношения ИИ:
- Алгоритмы найма, которые отдают предпочтение кандидатам на основе данных, которые чаще встречаются в резюме мужчин.
- Реклама в интернете – женщинам чаще показывают объявления о бытовых товарах, а мужчинам – о карьере и технологиях.
- ИИ, который создает изображения, на которых в основном белые мужчины в возрасте на руководящих ролях.
Важно понимать, что информация, предоставляемая инструментами искусственного интеллекта, может быть не совсем верной или неточной.
Галлюцинация
В ИИ галлюцинация — это когда LLM выдает неверные, вводящие в заблуждение или бессмысленные результаты.
Примеры галлюцинаций ИИ:
- Чат GPT, выдающий в качестве юридической справки несуществующие случаи в качестве реальных прецедентов.
- Случай, когда чат Bing сообщил неточную финансовую информацию по компаниям Gap и Lululemon.
- Google, выдавший неверную информацию о космическом телескопе Джеймса Уэбба.
Возьмите за правило перепроверять любые факты, представленные LLM.
Утечка данных
Оценка инструментов ИИ
Ответственный ИИ — подход к созданию и использованию систем искусственного интеллекта (ИИ), который направлен на соблюдение этических норм и основных принципов.
Компании могут снизить риски, связанные с использованием ИИ, следуя лучшим практикам, описанных в модели ответственно ИИ в SAFe.
Ответственный ИИ — это система искусственного интеллекта, которая демонстрирует все следующие аспекты:
- Заслуживающая доверия.
- Объяснимая.
- Человекоцентричная.
Когда инструменты ИИ заслуживают доверия, они надежны и защищают личные данные. При оценке нового инструмента учитывайте, является ли он:
- Конфиденциальным: это гарантирует, что информация о клиентах и компании не просочится наружу.
- Безопасный: он спроектирован так, что предотвращает использование хакерами слабых мест в инструменте.
- Отказоустойчивый: он может справиться с атаками и исправиться, если искусственный интеллект перестанет работать.
- Надежный: он стабильно работает так, как задумано.
- Точный: он выдает правильную информацию.
Системы ИИ объяснимы, когда они работают так, что вы понимаете, как они достигают результатов, которые дают вам. Подумайте о следующих аспектах этого инструмента:
- Прозрачность: легко понять, как работает инструмент, и люди самостоятельно могут воспроизвести такие же результаты.
- Поддающийся интерпретации: он принимает решения понятными для людей способами.
- Подотчетный: компания, создающая ИИ, берет на себя ответственность за то, что делает ИИ, и за его результаты.
Ориентированные на человека инструменты ИИ не наносят вреда людям, имуществу или окружающей среде. Инструмент ориентирован на человека, если он:
- Безопасный: он не опасен для людей.
- Справедливый: он относится к людям одинаково, активно избегая предвзятости.
- Этичный: он соответствует морали и ценностям общества.
- Инклюзивный: рассчитан на самый широкий круг пользователей.
- Устойчивый: не наносит вреда окружению.
- Законопослушный: соответствует действующим законам и нормативным актам.
Тест — проверьте, насколько хорошо вы усвоили материал
Время вышло