Девин Партайда — главный редактор ReHack. В качестве писателя её работы публиковались в Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf и других изданиях.
Откройте для себя лучшие новости и события финтеха!
Подпишитесь на рассылку FinTech Weekly
Читают руководители JP Morgan, Coinbase, Blackrock, Klarna и других компаний
Искусственный интеллект (ИИ) — одна из самых перспективных, но одновременно вызывающих особое беспокойство технологий в финтехе сегодня. После того как DeepSeek произвел фурор в сфере ИИ, его возможности и риски требуют особого внимания.
В то время как ChatGPT вывел генеративный ИИ в массовое использование в 2022 году, DeepSeek достиг новых высот с запуском модели DeepSeek-R1 в 2025 году.
Алгоритм является открытым исходным кодом и бесплатным, но показывает результаты, сопоставимые с платными проприетарными решениями. Поэтому он представляет собой заманчивую бизнес-возможность для финтех-компаний, надеющихся извлечь выгоду из ИИ, но при этом вызывает этические вопросы.
Рекомендуемое чтение:
Модель DeepSeek R1 вызывает дебаты о будущем развития ИИ
Модель ИИ DeepSeek: возможности и риски для небольших технологических компаний
Конфиденциальность данных
Как и в случае с многими приложениями ИИ, существует проблема защиты данных. Большие языковые модели (LLMs), такие как DeepSeek, требуют значительного объема информации, а в секторе финтеха большая часть этих данных может быть чувствительной.
У DeepSeek есть дополнительная сложность — он принадлежит китайской компании. Правительство Китая может получить доступ ко всей информации, хранящейся в китайских дата-центрах, или запросить данные у компаний внутри страны. В результате модель может представлять риски, связанные с иностранным шпионажем и пропагандой.
Еще одна проблема — утечки данных сторонних организаций. DeepSeek уже столкнулся с утечкой, которая раскрыла более миллиона записей, что может поставить под сомнение безопасность инструментов ИИ.
Предвзятость ИИ
Модели машинного обучения, такие как DeepSeek, склонны к предвзятости. Поскольку ИИ очень хорошо распознает и учится на тонких закономерностях, которые могут ускользнуть от внимания человека, он может усваивать бессознательные предубеждения из обучающих данных. Обучаясь на искаженной информации, такие модели могут способствовать и усугублять проблемы неравенства.
Эти опасения особенно актуальны в финансах. Поскольку финансовые институты исторически избегали предоставлять возможности меньшинствам, их данные часто содержат значительную предвзятость. Обучение DeepSeek на таких данных может привести к дальнейшим предвзятым действиям, например, отказу в выдаче кредитов или ипотек на основе этнической принадлежности, а не кредитоспособности.
Доверие потребителей
Поскольку новости о проблемах, связанных с ИИ, заполняют заголовки, общество становится все более скептически настроено к этим технологиям. Это может привести к снижению доверия между финтех-компанией и её клиентами при отсутствии прозрачного управления этими вопросами.
DeepSeek может столкнуться с особым барьером. Сообщается, что компания создала свою модель всего за 6 миллионов долларов, и как быстрорастущая китайская фирма, она может напомнить о проблемах конфиденциальности, связанных с TikTok. Общественность может не доверять низкобюджетной, быстро разработанной модели ИИ с их данными, особенно если на нее может влиять китайское правительство.
Как обеспечить безопасное и этичное внедрение DeepSeek
Этические соображения не означают, что финтех-компании не могут безопасно использовать DeepSeek, но подчеркивают важность аккуратной реализации. Организации могут внедрять DeepSeek этично и безопасно, следуя этим лучшим практикам.
Запускайте DeepSeek на локальных серверах
Одним из важнейших шагов является запуск ИИ-инструмента на отечественных дата-центрах. Хотя DeepSeek — китайская компания, его веса модели открыты, что позволяет запускать его на серверах в США и снижать опасения по поводу утечек данных со стороны китайского правительства.
Однако не все дата-центры одинаково надежны. Идеально, если финтех-компании будут размещать DeepSeek на собственном оборудовании. Если это невозможно, руководство должно тщательно выбрать хостинг-провайдера, сотрудничая только с теми, кто обеспечивает высокий уровень uptime и соблюдение стандартов безопасности, таких как ISO 27001 и NIST 800-53.
Минимизируйте доступ к чувствительным данным
При создании приложений на базе DeepSeek финтех-компании должны учитывать, к каким данным модель может иметь доступ. ИИ должен иметь доступ только к необходимой информации для выполнения своих задач. Также желательно очищать доступные данные от ненужной личной идентифицируемой информации (PII).
Когда DeepSeek работает с меньшим объемом чувствительных данных, риск утечки снижается. Минимизация сбора PII также важна для соблюдения законов, таких как Общий регламент по защите данных (GDPR) и Закон Грамма-Лича-Блайли (GLBA).
Внедряйте меры кибербезопасности
Регуляции, такие как GDPR и GLBA, обычно требуют внедрения защитных мер для предотвращения утечек. Даже вне рамок законодательства, история утечек DeepSeek подчеркивает необходимость дополнительных мер безопасности.
Минимум, все данные, доступные ИИ, должны быть зашифрованы в состоянии покоя и при передаче. Регулярное проведение тестов на проникновение для выявления и устранения уязвимостей также желательно.
Финтех-компании должны рассматривать автоматизированный мониторинг своих приложений на базе DeepSeek, поскольку такая автоматизация позволяет экономить в среднем 2,2 миллиона долларов на затратах, связанных с утечками, благодаря более быстрым и эффективным реагированиям.
Проводите аудит и мониторинг всех приложений ИИ
Даже после внедрения этих мер важно оставаться бдительными. Перед запуском DeepSeek необходимо провести аудит, чтобы выявить признаки предвзятости или уязвимости безопасности. Помните, что некоторые проблемы могут быть незаметны сразу, поэтому постоянный контроль обязателен.
Создайте специальную команду для мониторинга результатов работы ИИ и обеспечения его этичности и соответствия нормативам. Также важно быть прозрачными с клиентами по поводу таких практик. Это поможет укрепить доверие в этой сомнительной области.
Финтех-компании должны учитывать этику ИИ
Данные в финтехе особенно чувствительны, поэтому все организации этого сектора должны серьезно относиться к инструментам, основанным на данных, таким как ИИ. DeepSeek может стать ценным бизнес-ресурсом, но только при условии строгого соблюдения этических и безопасных стандартов.
Понимая необходимость такой осторожности, лидеры финтеха смогут обеспечить безопасность и справедливость своих инвестиций в DeepSeek и другие проекты ИИ.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Этические соображения при внедрении DeepSeek AI в финтех
Девин Партайда — главный редактор ReHack. В качестве писателя её работы публиковались в Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf и других изданиях.
Откройте для себя лучшие новости и события финтеха!
Подпишитесь на рассылку FinTech Weekly
Читают руководители JP Morgan, Coinbase, Blackrock, Klarna и других компаний
Искусственный интеллект (ИИ) — одна из самых перспективных, но одновременно вызывающих особое беспокойство технологий в финтехе сегодня. После того как DeepSeek произвел фурор в сфере ИИ, его возможности и риски требуют особого внимания.
В то время как ChatGPT вывел генеративный ИИ в массовое использование в 2022 году, DeepSeek достиг новых высот с запуском модели DeepSeek-R1 в 2025 году.
Алгоритм является открытым исходным кодом и бесплатным, но показывает результаты, сопоставимые с платными проприетарными решениями. Поэтому он представляет собой заманчивую бизнес-возможность для финтех-компаний, надеющихся извлечь выгоду из ИИ, но при этом вызывает этические вопросы.
Рекомендуемое чтение:
Конфиденциальность данных
Как и в случае с многими приложениями ИИ, существует проблема защиты данных. Большие языковые модели (LLMs), такие как DeepSeek, требуют значительного объема информации, а в секторе финтеха большая часть этих данных может быть чувствительной.
У DeepSeek есть дополнительная сложность — он принадлежит китайской компании. Правительство Китая может получить доступ ко всей информации, хранящейся в китайских дата-центрах, или запросить данные у компаний внутри страны. В результате модель может представлять риски, связанные с иностранным шпионажем и пропагандой.
Еще одна проблема — утечки данных сторонних организаций. DeepSeek уже столкнулся с утечкой, которая раскрыла более миллиона записей, что может поставить под сомнение безопасность инструментов ИИ.
Предвзятость ИИ
Модели машинного обучения, такие как DeepSeek, склонны к предвзятости. Поскольку ИИ очень хорошо распознает и учится на тонких закономерностях, которые могут ускользнуть от внимания человека, он может усваивать бессознательные предубеждения из обучающих данных. Обучаясь на искаженной информации, такие модели могут способствовать и усугублять проблемы неравенства.
Эти опасения особенно актуальны в финансах. Поскольку финансовые институты исторически избегали предоставлять возможности меньшинствам, их данные часто содержат значительную предвзятость. Обучение DeepSeek на таких данных может привести к дальнейшим предвзятым действиям, например, отказу в выдаче кредитов или ипотек на основе этнической принадлежности, а не кредитоспособности.
Доверие потребителей
Поскольку новости о проблемах, связанных с ИИ, заполняют заголовки, общество становится все более скептически настроено к этим технологиям. Это может привести к снижению доверия между финтех-компанией и её клиентами при отсутствии прозрачного управления этими вопросами.
DeepSeek может столкнуться с особым барьером. Сообщается, что компания создала свою модель всего за 6 миллионов долларов, и как быстрорастущая китайская фирма, она может напомнить о проблемах конфиденциальности, связанных с TikTok. Общественность может не доверять низкобюджетной, быстро разработанной модели ИИ с их данными, особенно если на нее может влиять китайское правительство.
Как обеспечить безопасное и этичное внедрение DeepSeek
Этические соображения не означают, что финтех-компании не могут безопасно использовать DeepSeek, но подчеркивают важность аккуратной реализации. Организации могут внедрять DeepSeek этично и безопасно, следуя этим лучшим практикам.
Запускайте DeepSeek на локальных серверах
Одним из важнейших шагов является запуск ИИ-инструмента на отечественных дата-центрах. Хотя DeepSeek — китайская компания, его веса модели открыты, что позволяет запускать его на серверах в США и снижать опасения по поводу утечек данных со стороны китайского правительства.
Однако не все дата-центры одинаково надежны. Идеально, если финтех-компании будут размещать DeepSeek на собственном оборудовании. Если это невозможно, руководство должно тщательно выбрать хостинг-провайдера, сотрудничая только с теми, кто обеспечивает высокий уровень uptime и соблюдение стандартов безопасности, таких как ISO 27001 и NIST 800-53.
Минимизируйте доступ к чувствительным данным
При создании приложений на базе DeepSeek финтех-компании должны учитывать, к каким данным модель может иметь доступ. ИИ должен иметь доступ только к необходимой информации для выполнения своих задач. Также желательно очищать доступные данные от ненужной личной идентифицируемой информации (PII).
Когда DeepSeek работает с меньшим объемом чувствительных данных, риск утечки снижается. Минимизация сбора PII также важна для соблюдения законов, таких как Общий регламент по защите данных (GDPR) и Закон Грамма-Лича-Блайли (GLBA).
Внедряйте меры кибербезопасности
Регуляции, такие как GDPR и GLBA, обычно требуют внедрения защитных мер для предотвращения утечек. Даже вне рамок законодательства, история утечек DeepSeek подчеркивает необходимость дополнительных мер безопасности.
Минимум, все данные, доступные ИИ, должны быть зашифрованы в состоянии покоя и при передаче. Регулярное проведение тестов на проникновение для выявления и устранения уязвимостей также желательно.
Финтех-компании должны рассматривать автоматизированный мониторинг своих приложений на базе DeepSeek, поскольку такая автоматизация позволяет экономить в среднем 2,2 миллиона долларов на затратах, связанных с утечками, благодаря более быстрым и эффективным реагированиям.
Проводите аудит и мониторинг всех приложений ИИ
Даже после внедрения этих мер важно оставаться бдительными. Перед запуском DeepSeek необходимо провести аудит, чтобы выявить признаки предвзятости или уязвимости безопасности. Помните, что некоторые проблемы могут быть незаметны сразу, поэтому постоянный контроль обязателен.
Создайте специальную команду для мониторинга результатов работы ИИ и обеспечения его этичности и соответствия нормативам. Также важно быть прозрачными с клиентами по поводу таких практик. Это поможет укрепить доверие в этой сомнительной области.
Финтех-компании должны учитывать этику ИИ
Данные в финтехе особенно чувствительны, поэтому все организации этого сектора должны серьезно относиться к инструментам, основанным на данных, таким как ИИ. DeepSeek может стать ценным бизнес-ресурсом, но только при условии строгого соблюдения этических и безопасных стандартов.
Понимая необходимость такой осторожности, лидеры финтеха смогут обеспечить безопасность и справедливость своих инвестиций в DeepSeek и другие проекты ИИ.