Сегодня в России взаимодействие некоммерческих организаций и искусственного интеллекта находится на начальной стадии. Пока нет широкого распространения технологий: сектор скорее «прощупывает почву», чем массово внедряет инновации. Однако проблематика ИИ — особенно в части справедливого доступа и сохранения человеческого потенциала — стала настолько актуальной, что звучит уже на государственном уровне.
Так, недавно на заседании СПЧ Президент России Владимир Путин акцентировал внимание на рисках бездумного применения технологий. Речь шла не только о защите данных, но и о сохранении «умения думать» у россиян.
«Если использовать это [ИИ] бездумно, то это тоже может привести к утрате того, что нам дорого, — нашей идентичности, и к распылению информации, больших данных, передаче этой информации в руки тех, кто воспользуется этой информацией недобросовестно», — объяснил Путин.
Однако эти опасения свойственны не только России. Вопрос «Как использовать ИИ во благо?» волнует весь мир. Американские ученые из Центра эффективной филантропии (CEP) провели масштабное исследование «ИИ и осознанный подход к нему. Как фонды и некоммерческие организации размышляют об искусственном интеллекте и используют его».
Исследование сфокусировано на Северной Америке — основная часть респондентов находится в США, также включены организации из Канады. Всего были опрошены 432 руководителя НКО, то есть те, реализуют социальные программы, и 231 руководитель крупных и средних частных и общественных фондов, кто распределяет гранты и формирует повестку.
Фонд «Истоки» изучил исследование и выяснил, как технологии меняют благотворительность на практике.
От рутины к спасению жизней
Согласно отчету CEP, использование ИИ в некоммерческом секторе растет теми же темпами, что и в бизнесе. В коммерческой сфере уровень внедрения подскочил с 55% до 80% всего за два года, и НКО показывают схожую динамику: почти две трети опрошенных организаций уже используют искусственный интеллект.
Фото: Amos K / Unsplash

Нейросети взяли на себя роль офисных ассистентов: они помогают вводить данные, составляют протоколы встреч, пишут черновики писем и формируют контент для социальных сетей.
Особенно заметна роль технологий в фандрайзинге: подавляющее большинство организаций (около 90%) либо уже используют, либо планируют использовать ИИ для подготовки грантовых заявок и отчетов для доноров. Это освобождает сотрудников от бумажной работы и позволяет им заниматься прямыми обязанностями — работой с благополучателями.
Но есть примеры, когда ИИ меняет не только офисную рутину, но и сам подход к решению глобальных проблем. Например, организация Mercy Corps использовала технологии для гуманитарной помощи во время конфликта в Судане. Они анализировали спутниковые снимки посевов за последние 10 лет, сравнивая, как растения отражают свет.
Искусственный интеллект в реальном времени сопоставлял эти данные с текущей ситуацией, позволяя мгновенно выявлять районы, где назревает голод. Это дало возможность направить ресурсы туда, где они нужнее всего, еще до наступления катастрофы.

Дилемма
Но не все так гладко: рост популярности технологий вызывает тревогу. Исследование показало, что для лидеров сектора главным риском является безопасность данных. Так, например, более 80% опрошенных грантодателей обеспокоены тем, что загрузка конфиденциальной информации в нейросети может привести к утечкам. Руководители НКО также боятся дезинформации и неточных результатов, которые могут навредить репутации или ввести в заблуждение благополучателей (73% случаев).
Но есть и общий этический вопрос: как повысить эффективность, не пожертвовав человечностью? Это особенно остро ощущают организации, работающие с уязвимыми группами, мигрантами и малообеспеченными сообществами.
С одной стороны, у них всегда не хватает ресурсов, и автоматизация кажется спасением. С другой — они опасаются, что алгоритмы вытесняют живое общение и эмпатию, превратив помощь в конвейер. Руководители НКО подчеркивают: технологии должны служить инструментом поддержки, а не заменой человеческому участию.
Ситуация осложняется нехваткой компетенций. Многие НКО признаются, что их сотрудникам не хватает знаний для грамотной работы с нейросетями. Средств на обучение у организаций, естественно, нет.
Например, только 2% российских НКО используют ИИ на регулярной основе» согласно недавнему исследованию «Благотворительная индустрия в России и роль крупных филантропов в ней 2025», проведенного Frank RG и Sber Private.
«У нас настолько бережливая организация, что мы редко обращаемся за финансированием, которое не оказывает прямого влияния на услуги», — отмечает один из респондентов. В итоге получается, что внедрение инноваций происходит хаотично.
Чтобы закрыть дефицит знаний и внедрение искусственного интеллекта происходило органично, появляются обучающие программы. Например, в России благотворительный фонд Яндекса «Помощь рядом» совместно с фондом «Друзья» и образовательным проектом To Dual представил пилотный курс по искусственному интеллекту для сотрудников НКО. Его задача — научить специалистов НКО использовать ИИ в своей ежедневной работе.
Помехи в диалоге грантодателей и НКО
Исследование вскрыло системную проблему коммуникации внутри сектора. Оказалось, что грантодающие фонды и НКО живут в немного разных реальностях относительно потребностей в нейросетях. Большинство грантодателей уверены, что их подопечные не нуждаются в технологической поддержке, или просто не знают, как ее предложить. А три четверти руководителей НКО считают, что доноры не понимают реальных проблем и запросов в этой сфере.
Менее 20% руководителей НКО обсуждали тему ИИ со своими спонсорами. При этом почти 90% фондов не выделяют целевого финансирования на внедрение технологий.

Причины такой пассивности разные. Треть фондов заявляет, что просто не получали запросов от грантополучателей. Другие считают, что это не соответствует их миссии или уставу, а четверть доноров честно признались, что просто не знают, с чего начать и как оценить необходимость такой поддержки.
Фото: Solen Feyissa / Unsplash
При этом запрос со стороны НКО вполне конкретен: организациям нужны ресурсы. Так, 68% организаций хотели бы получить обучение для сотрудников, 63% — целевое финансирование на покупку софта и инструментов, а 55% нуждаются в техническом консалтинге.
Некоммерческие организации посылают донорам сигнал: не нужно форсировать события или навязывать решения сверху. Лучшая стратегия — стать интеллектуальным партнером, который поможет разобраться в теме, оплатит обучение и позволит НКО самим решить, где ИИ усилит их миссию.
К чему готовиться?
Зарубежный опыт показывает, что ИИ неизбежно станет частью работы НКО. Эта тенденция заметна и в российском некоммерческом секторе: так, впервые в 2025 году в России вручили премию «ИИ в НКО». Ее цель выявить и поддержать лучшие практики использования ИИ, содействовать развитию живого, полезного и этичного некоммерческого сектора в России. Хотя в первый год было подано всего 37 заявок, это уже шаг в продвижении темы ИИ в НКО.
При этом будущее — за «агентным ИИ», который может действовать автономно, предлагать решения и выполнять многоэтапные задачи для достижения поставленной цели с минимальным вмешательством человека.
Например, нейросеть будущего будет не просто находить вакансии для соискателей, но и записывать их на собеседование и даже прокладывать маршрут до офиса компании.
Кроме этого, отдельный блок исследования посвящен концепции «Справедливого ИИ» (Equitable AI). Проблема заключается в том, что нейросети обучаются на данных, которые часто содержат социальные предубеждения или даже опасные стереотипы. Если не учитывать это при использовании нейросетей, ИИ может дискриминировать и без того уязвимые группы людей, усугубляя неравенство. Это одна из проблем, с которой неизбежно столкнется сектор при работе с ИИ.
Подытоживая, для российских организаций выводы исследования CEP могут служить сигналом к:
- Выстраиванию диалога внутри сектора о необходимости развития IT-компетенций.
- Разработке внутренней политики использования ИИ, чтобы защитить данные и сохранить доверие аудитории.
- Инвестированию в обучение сотрудников, чтобы не допустить ситуации, когда нажатие «волшебной» кнопочки заменяет профессиональную экспертизу.
- Изучению Кодекса этики в сфере ИИ, который уже существует в России. Он носит рекомендательный характер, а присоединение к нему – добровольно. Сектору стоит принимать участие в его работе, озвучивая свои опасения и предложения в связи с развитием ИИ разработчикам, государству и ученым.
Материал подготовлен при участии:
заместителя исполнительного директора по взаимодействию с благотворителями и попечителями Фонда целевого капитала «Истоки»
директора по коммуникациям Фонда целевого капитала «Истоки»
