Все статьи

Дина Соболева

Agile-коуч, Cкрам-мастер. Умею и люблю работать с командами любого уровня зрелости и руководителями, помогая им улучшать процессы и продукты. Практикую разумный Agile и Скрам. Знаю короткий путь к крутым процессам, но работаю в том темпе, к которому готова команда. Agile-трансформация и внедрение SAFe с нуля до продвинутого уровня. Люблю метрики и умею их использовать как инструмент для улучшений.

Искусственный интеллект в организации

Дата: 16.06.2025

Искусственный интеллект в организации

Готовы ли вы опередить конкурентов и вывести свой продукт на новый уровень? Искусственный интеллект (ИИ) быстро становится ценным партнером для Scrum-мастеров (Scrum Master, SM), командных коучей (Team Coach, TC) и владельцев продукта (Product Owner, PO), во многих сферах ответственности, особенно в условиях растущей сложности координации нескольких команд и Agile Release Train (ART).

Из статьи вы узнаете как Scrum-мастерам, коучам команд и владельцам продукта использовать техники создания запросов, про преимущества инструментов с поддержкой ИИ и про то, как выявлять риски, связанные с ИИ и избегать их. Все это поможет получить наилучшие результаты от инструментов ИИ.

Содержание

Скрам-мастера и коучи команд

ИИ может помочь работать более эффективно, создавая идеи на основе данных, автоматизируя рутинные задачи, отслеживая здоровье команды и поддерживая непрерывное совершенствование. ИИ не заменяет человека, скорее как экзоскелет повышает возможности человека в лидерстве, коучинге и фасилитации в Agile на масштабе. 

Владельцы продукта

Инструменты с поддержкой искусственного интеллекта помогут вам установить контакт с заказчиком, управлять бэклогом команды и приоритезировать его, а также получать обратную связь, сокращая время на выполнение повторяющихся задач.

Подходящие инструменты ИИ позволяют SM/TC/PO сосредоточиться на создании высокопроизводительных команд и более быстром создании ценности.

ИИ-компетенция в SAFe®

Стать компанией, ориентированной на ИИ, означает нечто большее, чем просто использовать инструменты ИИ. Это означает, что ИИ становится основным компонентом организации работы. Используя ИИ в различных областях деятельности, компании могут внедрять инновации, оставаться гибкими и быстро реагировать на изменение потребностей рынка и клиентов.

SAFe® (Scaled Agile Framework®) определяет три аспекта компетенции в области ИИ, которые должны использовать предприятия, чтобы использовать на практике преимущества искусственного интеллекта:

  • Усиление сотрудников через ИИ.
  • Решения с поддержкой ИИ.
  • Ответственный ИИ

Усиление сотрудников через ИИ

Усиление сотрудников через ИИ - Искусственный интеллект в организации

Первая компетенция ИИ в SAFe — усиление сотрудников через ИИ — фокусируется на обеспечении ролей в SAFe инструментами ИИ, которые поддержат выполнение их работы. Инструменты генеративного ИИ могут быть полезны во многих аспектах работы по SAFe. Они могут обеспечить следующую поддержку:

  • Ускорить процессы.
  • Сократить время выполнения повторяющихся задач.
  • Поддержать мозговой штурм и решение проблем.

Решения с поддержкой ИИ

Вторая ИИ-компетенция в SAFe направлена на оказание поддержки организациям в разработке их собственных решений с ИИ. Она включает в себя:

  • Усиление Agile-команд с помощью ИИ.
  • Включение ИИ-процессов в SAFe.
  • Выбор инструментов и платформ ИИ.
Решения с поддержкой ИИ - Искусственный интеллект в организации

Ответственный ИИ

Ответственный ИИ - Искусственный интеллект в организации SAFe

Третья ИИ-компетенция в SAFe направлена на снижение рисков, связанных с использованием и разработкой ИИ, через три аспекта ответственного ИИ. Решения с ответственным ИИ:

  • Надежные и заслуживающие доверия.
  • Объяснимые.
  • Человекоцентричные.

Профессиональное использование в обычной работе

Сотрудники, работающие по SAFe, все чаще используют инструменты искусственного интеллекта в своей повседневной практике. Существует множество различных инструментов ИИ, которые вы можете использовать в работе. Тем не менее, как правило, эти инструменты делятся на две категории:

  • генеративный ИИ, использующий большие языковые модели (Large Language Model, LLM);
  • программное обеспечение со встроенными функциями ИИ.

Генеративный ИИ

Генеративный ИИ, использующий LLM, такой как SAFe CoPilot, ChatGPT, Claude и другие, может помочь вам получить доступ к знаниям с помощью понятных запросов. Инструменты на основе LLM могут отвечать на вопросы, систематизировать информацию, анализировать данные и создавать контент на основе ваших конкретных запросов.

Некоторые примеры генеративного ИИ:

Генерация текста и чат-боты
SAFeCoPilot
ChatGPT
Claude
Генерация изображений
Midjourney
DALL-E
Stable Diffusion
Генерация изображений
Midjourney
DALL-E
Stable Diffusion

SAFe CoPilot

SAFe CoPilot — это LLM, обученная специально по руководству SAFe, которая может помочь вам в вашей практике, предоставляя самые актуальные и точные ответы на ваши вопросы, относящиеся к SAFe.

SADe CoPilot - Искусственный интеллект в организации

SAFe CoPilot предоставляет:

  • Индивидуальное руководство: вы можете обратиться за конкретной консультацией по практикам и концепциям SAFe.
  • Быстрый доступ к информации: вы можете задавать вопросы и получать немедленные ответы в соответствии с SAFe-руководством.
  • Поддержка сотрудничества: вы можете обратиться за помощью в проведении обсуждений. SAFe CoPilot может предоставить идеи, которые улучшат общение между членами команды.

Программное обеспечение со встроенными функциями ИИ

Вы также можете использовать инструменты со встроенными функциями искусственного интеллекта. Эти инструменты могут выполнять такие задачи, как распознавание закономерностей, помощь в принятии решений, обучение на основе данных или общение с пользователями. В повседневной жизни вы можете столкнуться с программным обеспечением со встроенным ИИ в устройствах для умного дома, поисковых системах в Интернете или чат-ботах для обслуживания клиентов.

На работе вы можете использовать инструменты со встроенными функциями ИИ для:

Управления жизненным циклом Agile
JiraAlign
Rally
Targetprocess
Сервисы
для клиентов
TIDIO
Hiver
Zendesk
Управление
проектами
Asana
Notion
monday.com
Автоматизация
 
Zapier
Power Automate
Make

Если вы дочитали до этого места, значит, вам интересен полезный контент о современных методах управления. Чтобы узнавать про новые статьи, видео и бесплатные мероприятия, вступайте в сообщество SAFe® Russia.

Риски использования ИИ

При использовании ИИ важно осознавать присущие ему риски, чтобы иметь возможность использовать его в соответствии с принципами SAFe и ценностями вашей организации. Тремя наиболее распространенными рисками, связанными с ИИ, являются:

  • Предвзятость.
  • Галлюцинация.
  • Утечка данных.

Предвзятость

Предвзятость - Использование Искусственного Интеллекта в организации SAFe

Предвзятость ИИ возникает, когда он выдает результаты, отражающие предубеждения человека, которые обычно отражают предрассудки общества. Предвзятость может возникать на многих этапах разработки ИИ, включая:

Сбор данных
Информация, используемая для обучения ИИ, недостаточно разнообразна или репрезентативна для конечного использования.

Люди помечают информацию, используя субъективные измерения, которые приводят к неточным или разнообразным обозначениям.

Информация об обучении несбалансирована, или структура модели не учитывает различные входные данные; оптимизация сделана в пользу мнения большинства.
Использование в реальных условиях может не соответствовать использованию в тестовых условиях.

Примеры предвзятого отношения ИИ:

  • Алгоритмы найма, которые отдают предпочтение кандидатам на основе данных, которые чаще встречаются в резюме мужчин.
  • Реклама в интернете – женщинам чаще показывают объявления о бытовых товарах, а мужчинам – о карьере и технологиях.
  • ИИ, который создает изображения, на которых в основном белые мужчины в возрасте на руководящих ролях.

Важно понимать, что информация, предоставляемая инструментами искусственного интеллекта, может быть не совсем верной или неточной.

Галлюцинация

В ИИ галлюцинация — это когда LLM выдает неверные, вводящие в заблуждение или бессмысленные результаты.

Примеры галлюцинаций ИИ:

  • Чат GPT, выдающий в качестве юридической справки несуществующие случаи в качестве реальных прецедентов.
  • Случай, когда чат Bing сообщил неточную финансовую информацию по компаниям Gap и Lululemon.
  • Google, выдавший неверную информацию о космическом телескопе Джеймса Уэбба.

Возьмите за правило перепроверять любые факты, представленные LLM.

Галлюцинации - Использование Искусственного интеллекта в организации SAFe

Утечка данных

Предвзятость - Использование Искусственного Интеллекта в организации SAFe
Утечка данных может произойти, когда сотрудники вводят конфиденциальную информацию о компании или клиентах во внешние инструменты ИИ. Поскольку большинство программного обеспечения для ИИ создается и управляется внешними компаниями, важно соблюдать осторожность при сборе, хранении и использовании конфиденциальных данных в этих системах. Знайте, что такие инструменты, как ChatGPT, могут использовать ваши подсказки для улучшения инструмента, добавляя информацию к материалам, используемым для его изучения.

Оценка инструментов ИИ

Ответственный ИИ — подход к созданию и использованию систем искусственного интеллекта (ИИ), который направлен на соблюдение этических норм и основных принципов.
Компании могут снизить риски, связанные с использованием ИИ, следуя лучшим практикам, описанных в модели ответственно ИИ в SAFe.

Ответственный ИИ — это система искусственного интеллекта, которая демонстрирует все следующие аспекты:

  • Заслуживающая доверия.
  • Объяснимая.
  • Человекоцентричная.

Когда инструменты ИИ заслуживают доверия, они надежны и защищают личные данные. При оценке нового инструмента учитывайте, является ли он:

  • Конфиденциальным: это гарантирует, что информация о клиентах и компании не просочится наружу.
  • Безопасный: он спроектирован так, что предотвращает использование хакерами слабых мест в инструменте.
  • Отказоустойчивый: он может справиться с атаками и исправиться, если искусственный интеллект перестанет работать.
  • Надежный: он стабильно работает так, как задумано.
  • Точный: он выдает правильную информацию.
Заслуживает доверия - Искусственный интеллект в организации SAFe

Системы ИИ объяснимы, когда они работают так, что вы понимаете, как они достигают результатов, которые дают вам. Подумайте о следующих аспектах этого инструмента:

  • Прозрачность: легко понять, как работает инструмент, и люди самостоятельно могут воспроизвести такие же результаты.
  • Поддающийся интерпретации: он принимает решения понятными для людей способами.
  • Подотчетный: компания, создающая ИИ, берет на себя ответственность за то, что делает ИИ, и за его результаты.
Объяснимая - Искусственный интеллект в организации SAFe

Ориентированные на человека инструменты ИИ не наносят вреда людям, имуществу или окружающей среде. Инструмент ориентирован на человека, если он:

  • Безопасный: он не опасен для людей.
  • Справедливый: он относится к людям одинаково, активно избегая предвзятости.
  • Этичный: он соответствует морали и ценностям общества.
  • Инклюзивный: рассчитан на самый широкий круг пользователей.
  • Устойчивый: не наносит вреда окружению.
  • Законопослушный: соответствует действующим законам и нормативным актам.
Человекоцентричный - Искусственный интеллект в организации SAFe

Тест — проверьте, насколько хорошо вы усвоили материал

Нажмите кнопку «Начать» для прохождения теста

Автор:

Поделиться

VK
Telegram

Lean-управление портфелем в SAFe®

Тренинг Lean Portfolio Management дает полный набор инструментов, необходимых для реализации портфельного управления крупной компании. По окончании тренинга и сдачи выходного экзамена участники получают международный сертификат Certified SAFe® Lean Portfolio Manager (LPM).

Зарегистрироваться