Финансовые учреждения сталкиваются с растущей угрозой изощренного мошенничества с использованием искусственного интеллекта

Многие финансовые учреждения изо всех сил пытаются справиться с растущей изощренностью мошенничества с использованием искусственного интеллекта, что создает острую потребность в улучшенных методах обнаружения и предотвращения.

В мире финансов искусственный интеллект (ИИ) стал одновременно инструментом и генератором новых проблем. Оно приносит компаниям инновации, производительность и эффективность, однако оно также порождает сложные проблемы, к решению которых многие финансовые учреждения не готовы.

С появлением доступных инструментов искусственного интеллекта многие финансовые учреждения столкнулись с нехваткой инструментов для точного выявления и отделения мошенничества с использованием искусственного интеллекта от других видов мошенничества.

Неспособность различать различные типы мошенничества в своих системах оставляет эти учреждения в слепой зоне и затрудняет понимание масштабов и последствий мошенничества с использованием искусственного интеллекта.

Cointelegraph пообщался с Ари Джейкоби, экспертом по мошенничеству с использованием искусственного интеллекта и генеральным директором Deduce, чтобы лучше понять, как финансовые учреждения могут выявлять и разделять случаи мошенничества с использованием искусственного интеллекта, что можно сделать для предотвращения этого типа мошенничества до его совершения и как его быстрый рост может повлиять на всю отрасль.

Выявление мошенничества с помощью ИИ

Учитывая, что основная проблема заключается в том, что большинство финансовых учреждений в настоящее время не имеют возможности отличить мошенничество, сгенерированное ИИ, от всех других типов, оно объединено в одну категорию мошенничества.

Джейкоби заявил, что сочетание законной личной идентифицируемой информации, такой как номера социального страхования, имена и даты рождения, с адресами электронной почты, полученными с помощью социальной инженерии, и законными номерами телефонов делает обнаружение с помощью традиционных систем практически невозможным.

Джейкоби отметил, что это чрезвычайно затрудняет предотвращение и устранение основных факторов мошенничества, особенно с учетом появления новых видов мошенничества.

«ИИ особенно трудно обнаружить из-за его способности создавать синтетические, реалистичные личности в масштабах, которые делают практически невозможным его идентификацию с помощью технологий».

По словам генерального директора Deduce, проблема с решениями заключается в том, что технологии быстро развиваются, а значит, и навыки тех, кто совершает мошенничество с использованием ИИ, тоже. Это означает, что финансовые учреждения должны быть на вершине своей игры сейчас, чтобы понимать, где ИИ вступает в игру в таких случаях мошенничества.

Поиск решений

По словам Джейкоби, первым шагом при внедрении решений является анализ моделей онлайн-активности отдельных лиц и групп личностей для выявления мошеннических действий, которые могут казаться законными, но на самом деле являются мошенничеством.

Он заявил, что традиционных методов предотвращения мошенничества уже недостаточно, и финансовым учреждениям придется «неустанно проявлять инициативу» в своем стремлении предотвратить продолжающийся взрыв мошенничества с использованием искусственного интеллекта.

Скорее всего, это не будет означать реализацию только одного решения — это будет означать создание многоуровневой программы, которая будет работать над выявлением существующих мошенников, оставшихся в существующей клиентской базе, а также над предотвращением появления новых поддельных удостоверений личности до того, как они проникнут в систему.

«Благодаря многоуровневым решениям, использованию огромных наборов данных для выявления закономерностей и более точному анализу показателей доверия этот тип мошенничества можно эффективнее предотвращать».

Джейкоби сказал, что большинство групп по борьбе с финансовым мошенничеством, с которыми они общаются, сдвигают риск «на одну ступень вправо», и все, что ранее относилось к категории низкого риска, теперь относится к категории среднего риска, и они предпринимают дополнительные шаги для предотвращения мошенничества на всех этапах жизненного цикла клиента.

«Они серьезно относятся к угрозе мошенничества с использованием искусственного интеллекта; это одна из основных проблем, с которыми сталкивается финансовая отрасль, и мы находимся лишь на начальном этапе развития этой технологии».

Джейкоби подчеркнул, что количество случаев мошенничества выросло на 20% по сравнению с прошлым годом, а развитие искусственного интеллекта значительно увеличило распространенность синтетических личностей.

«Мошенничество с использованием искусственного интеллекта является сегодня самым быстрорастущим видом мошенничества с персональными данными, и в этом году его объем превысит 100 млрд долларов».

Помимо традиционных финансовых учреждений, поддельные удостоверения личности, созданные с помощью искусственного интеллекта, также могут изменить меры KYC на криптовалютных биржах и кибербезопасность в целом.

Проблема настолько масштабна, что ее уже рассматривают регулирующие органы. 2 мая комиссар Комиссии по торговле товарными фьючерсами США (CFTC) Кристин Джонсон выдвинула три предложения по регулированию технологий ИИ применительно к финансовым рынкам США.

В частности, введение более строгих наказаний для тех, кто намеренно использует технологии искусственного интеллекта для мошенничества, манипулирования рынком или уклонения от соблюдения нормативных требований.

Если финансовые учреждения и регулирующие органы не предпримут мер сейчас, они рискуют оказаться неспособными эффективно принять правильное решение. #Write2Earn