
Отчет о возможностях использования автоматизированных систем с искусственным интеллектом для проведении процедур due diligence в международных группах компаний S&P 100 и 500 в контексте антиотмывочной деятельности и антикоррупционого комплайенса представила компания Kreller Group. По мнение ее экспертов, возможности ИИ ограничены рядом существенных факторов.
С одной стороны, только компьютер, действующий на основе сложных алгоритмов, способен эффективно разбираться в огромных объемах неструктурированных данных. С другой стороны, качество результатов самообучения – понятие относительное. Столкнувшись с непривычной ситуацией, которая в алгоритмах прописана не была, машина подчас принимает решения, которые слабо напоминают поведение человека в ясном уме и твердой памяти. Между тем, мошенники стремятся применять все более сложные и необычные схемы махинаций, которые искусственный интеллект не способен распознать, если ничего подобного в его алгоритмах еще не прописано. Кроме того, ИИ-системы, в отличие от людей, смотрят на сами транзакции, а не на тех, кто за ними стоит.
Машинное обучение и ИИ уже вносят свой существенный вклад в данной области благодаря способности быстро обрабатывать колоссальные объемы данных и обнаруживать в них транзакции с аномальными характеристиками, что могло бы сигнализировать о потенциальном мошенничестве. Но сохраняются весомые ограничения машинного обучения. Среди них – проблема ошибочно-положительных результатов, усиление смещения из-за плохо сконструированных алгоритмов и применение ИИ в нарушение этических норм.
По мнению специалистов Kreller, даже самые передовые технологии глубокого обучения и нейронные сети не способны принимать решения в новых ситуациях, которым их еще не “обучили”, и это значительное ограничение для применения ИИ в корпоративных проверках due diligence. Человеческий интеллект, с другой стороны, по-прежнему незаменим во многих ситуациях, поскольку обладает инструментарием, способным разрешить создаваемые ИИ проблемы и ограничения. В новых ситуациях именно он способен лучше ориентироваться, поэтому лучше подходит для анализа уникального геополитического контекста и инновационных методов обхода международного антикоррупционного законодательства. Тем не менее, “гибридная"’ модель вполне имеет право на существование, опираясь одновременно на сильные стороны ИИ и преимущества человеческого интеллекта, обеспечивая эффективный и экономный вариант проведения всесторонних проверок. В сегодняшней публикации рассматривается, как именно это выглядит.
Американские реалии
Около года назад Федеральный резервный банк США, Федеральная корпорация по страхованию вкладов, департамент Министерства финансов по расследованию финансовых преступлений (FinCEN) и ряд других организаций выпустили совместное заявление с призывом к финансовым институтам внедрять инновационные методы обеспечения соблюдения антиотмывочного законодательства и Закона о банковской тайне 1970 г., прежде всего – искусственный интеллект. Банкам предоставили достаточно свободы действий. В частности, регуляторы пообещали не вводить дополнительное регулирование и е вмешиваться, если пилотные программы окажутся неудачными либо выявят недостатки применяемых традиционных протоколов.
Результаты не заставили себя ждать, хотя тенденции внедрения ИИ наблюдались и до этого. В своем апрельском докладе “Artificial intelligence in Finance” профессор корпоративных финансов и глава кафедры финансов и бухгалтерского учета Университета Суррей Бонни Бьюкенен и Институт Алана Тьюринга, отмечали волну инноваций с применением ИИ в финансовой отрасли.
Под интеллектом понимается способность делать обобщения в ограниченное время на основе имеющихся данных. Бьюкенен в своей публикации заключает, что искусственный интеллект и его составляющие (машинное и глубокое обучение) идеально подходят для целей обработки информации в сфере финансовых услуг.
Алгоритмическая торговля, портфельная оптимизация, робоконсультанты, обнаружение хищений – лишь некоторые из множества примеров приложений, функционирующих на основе ИИ. Машинное обучение, под которым подразумевается способность искусственного интеллекта брать данные и алгоритмы и применять их в новых сценариях без необходимости прямого программирования, а также глубокое обучение уже показали свою действенность и в обнаружении и предотвращении хищений.
Сегодня банки уже научили свои ИИ-приложения обнаруживать потенциально опасные транзакции на основе исторических данных Даже транзакция по покупке кофе с пирожным с помощью кредитки, может оказаться отклоненной, если вы не сообщили своему банку о предстоящем путешествии в Азию. “Спасибо” машинному обучению: покупку кофе с пирожным в этой ситуации могут посчитать аномалией. Со временем, после обработки множества транзакций, машинное обучение позволит системе перекалиброваться и далее не подозревать криминал в такой покупке. Но скорость, с которой система изучает потребительские предпочтения того или иного клиента, будет иметь огромные последствия для эмитентов кредитных карт и их пользователей. Проблема ошибочно-положительных результатов почти неизбежна, если речь идет о политике предотвращения мошенничества. Но грамотно настроенные инструменты прогнозирования позволяют минимизировать количество отклоненных транзакций. Это сохраняет репутацию эмитента в глазах клиента.
Еще одна причина популярности машинного обучения в финансовой сфере – способность ИИ-приложений обрабатывать огромные объемы данных, выявляя в них необычные транзакции, которые потенциально могут сигнализировать о фактах отмывания денежных средств и мошенничества с платежами – например, ситуациях, когда злоумышленник “маскируется” под легального поставщика товаров и пытается направить платеж себе вместо него. Технологии машинного обучения (особенно грамотно сочетающие в себе элементы контролируемого и неконтролируемого обучения) показали себя более эффективными против таких схем перенаправления платежей, чем традиционно применявшиеся до той поры инструменты противодействия. Кроме того, на преимущества ИИ обратили внимание и бухгалтеры-криминалисты.
Способность ИИ обрабатывать обширные объемы данных и быстро осуществлять рутинные задачи оказалась полезной не только в предотвращении мошенничества с кредитными картами и платежами, но и с обнаружением деятельности, связанной с отмыванием – теперь это используется составной частью банковского протокола “Знай своего клиента” (Know-your-customer, KYC). Более того, как пишет Бонни Бьюкеннен, антиотмывочная деятельность на самом-то деле была одной из первых сфер применения ИИ, имея в виду использование департаментом Министерства финансов по расследованию финансовых преступлени (FinCEN) еще в 1993 году! За первые два года Системы искусственного интеллекта FinCEN (FИИS) смогли обнаружить примерно 400 потенциально связанных с отмыванием инцидентов на общую стоимость около $1 млрд.
Сегодня, по мере развития такого направления ИИ как обработка естественного языка, идет разработка большого числа различного рода приложений, способных сканировать регистрационные документы клиентов на самых разных языках мира в поисках признаков отмывания еще при регистрации. Например, Wall Street Journal недавно сообщало о релизе компанией FИИr Isaac Corp. (FICO) двух ИИ-решений, обеспечивающих выполнение протокола “Знай своего клиента” без необходимости проведения персональной идентификации: первое использует распознавание лица для соотнесения “селфи” клиента с его идентификационным фотом, второе проверяет “цифровую идентичность” клиента через поведенческие биометрические данные (скорость набора текста или частота использования мобильного устройства).
Недостатки искусственного интеллекта
ИИ хорошо “вписался” в систему финансового комплайенса благодаря своей способности извлекать полезную информацию из данных по миллионам индивидуальных транзакций. В марте 2018 г. агентство Reuters писало, что традиционные системы антиотмывочного комплайенса в банковской отрасли сегодня анализируют данные, преимущественно используя методы обнаружения, “заточенные” под необычные паттерны поведения: слишком быстрые перенаправления денег с одного счета на другой, аномально высокие остатки на счетах, сложно структурированные транзакции и т.п. После подключения к ним ИИ удалось сделать обнаружение более эффективным, однако даже с искусственным интеллектом у систем обнаружения на основе принятых клиентами решений все еще слишком много недостатков.
Основанная на поведенческих аспектах модель уже показала себя недостаточно эффективной. Из-за этого американские регуляторы накладывали рекордные штрафы на финансовые институты, оказавшиеся неспособными обнаружить террористическую деятельность, наркокартели или уклонение известных людей от налогов. Корневая причина –“ошибочно-положительные результаты”. Только 2% сигналов системы приводят к составлению банками требуемых от них в таких случаях отчетов о подозрительной деятельности (suspicious activity report – SAR) В то же время “ложные тревоги” стоят представителям финансовой отрасли немало средств и времени на расследование. А опытные мошенники, между тем, уже научились так проектировать свои транзакции, чтобы система обнаружения не срабатывала вовсе. Это значит, что финансовые институты по-прежнему очень уязвимы перед финансовыми преступниками.
Cхемы отмывания, разрабатываемые сегодня международными преступными группировками, становятся все более сложными, методы – разнообразными. Все зависит от того, что именно это за группировка, каковы источники ее средств, и какие она применяет методы конвертации “грязных” денег в легальные счета. Методы обнаружения на основе анализа поведенческих аспектов фокусируются на красноречивых внешних признаках связанных с отмыванием транзакций, тогда как надзорная деятельность федеральных агентств фокусируется на другом – на операционных и организационных факторах каждой преступной группировки. В центре находится сам “агент” (правонарушитель, потенциальный или фактический), благодаря чему удается засветить гораздо больше “красных флажков” по сравнению с подходом, фокусирующемся на аномальных транзакциях. Каким бы совершенным ни было машинное обучение (даже неконтролируемое) – все равно оно разрабатывается техническими специалистами. А они могут не иметь глубоких познаний в области финансового регулирования, а значит – не знают современных трендов и рисков в сфере отмывания преступных доходов.
Возможно, регулятивные риски для банков снизятся, если интегрировать сфокусированные на самом “агенте”, а не проводимой транзакции, протоколы обнаружения в KYC. Не менее важно, что анализ клиента (“агента”) – неотъемлемая часть процедур due diligence. Это особенно актуально в случае всесторонних проверок международных компаний, работающих в высокорисковых отраслях.
Например, в 2017 году выяснилось, что один модный бутик в Майами, занимавшийся домашним декором, связан с международной контрабандой золота, доходы от которой шли перуанским наркокартелям. Бутик находился по одному адресу с компанией MVP Imports LLC – обе организации принадлежали бизнесмену из Южной Флориды, Джеффри Химмелю, сколотившему состояние на обновлении устаревших, некогда популярных брендов. Компания MVP Imports LLC фигурировала (хотя официально обвинения против нее не выдвигались) в криминальном расследовании против NTR Metal – компании-торговце золотом из г. Дорал (шт. Флорида). Было мнение, что эта компания находилась в центре едва ли не крупнейшего случая отмывания с ценными металлами в истории США.
Материнская по отношению к NTR Metal организация, Elemental LLC, в марте 2018 г. была признана виновной в нарушении Закона о банковской тайне, за то, что не придерживалась строгих антиотмывочных протоколов, установленных для торговли ценными металлами. Согласно выводу офиса Федерального прокурора США по южному округу Флориды, пренебрежение антиотмывочными протоколами в NFT было столь очевидным, что они без вопросов принимали золото от поставщиков из Южной Америки, несмотря на публично доступную информацию о причастности этих поставщиков к криминальным сделкам. Elemental была признана виновной после признания трех своих трейдеров в участии в схемах отмывания и контрабанды, в ходе которых у криминальных структур из Южной Америки было закуплено золота на $3,6 млрд., добытого, предположительно, с незарегистрированных шахт в перуанских лесах, контролируемых местными наркокартелями. Помимо нелегальной золотодобычи, наркокартели еще и наносили вред окружающей среде через массовую вырубку лесов и грязные технологии добычи с использованием тяжелых металлов, включая ртуть. Многое из только что описанного уже было отражено в публичных источниках до совершения покупки NTR Metal.
В ходе реализации преступной схемы NTR оказалась под давлением перуанских властей. Поэтому только в конце 2013 года контрабандный экспорт из Перу запустился в полной мере – прежде всего, в США. Джеффри Химмель и его MVP Imports были здесь всего лишь “фиговым листиком”, скрывающим роль NTR как конечного получателя золота. Позднее Химмель уверял, что он был не в курсе участия MVP Imports во всей этой схеме.
Вывод из этой истории: расследования, основанные на изучении самого “агента”, а не отдельных транзакций – верный инструмент для бизнеса, желающего получить адекватное представление о рисках, скрывающихся под поверхностью. Осведомленность о наличии связей между наркоторговлей и контрабандой золота в Латинской Америке, вкупе со всесторонней проверкой источников дохода и транзакций компании NTR, наверняка обеспечила бы эффективную систему противодействия отмыванию.
Используемые сегодня в финансовой сфере модели обнаружения хищений, основанные на жестких правилах и установках, даже в сочетании с машинным обучением имеют серьезные недостатки. Самый существенный из них – относительное бессилие в абсолютно новых ситуациях. В ряде случаях это “слепое пятно” искусственного интеллекта может иметь трагические последствия, как это произошло с беспилотным автомобилем в г. Темпе (шт. Аризона) в мае 2018 года. Беспилотный автомобиль Uber двигался по плохо освещенному участку улицы, когда ее стал пересекать пешеход в темной одежде, ведя за собой рядом велосипед. Пешеход пересекал улицу в неположенном месте, поэтому перехода на этом участке улицы программа не распознавала. Компьютерная система авто зарегистрировала препятствие примерно за 6 секунд до столкновения на скорости 43 м/ч (ок. 60 км/ч), но не смогла правильно его классифицировать. В Отчете Национального совета по безопасности на транспорте (NTSB) отмечалось, что сначала препятствие было идентифицировано как неизвестный объект, затем – как транспортное средство и лтшь потом – как велосипед. Определить траекторию движения система не смогла или не успела. Из-за задержки с идентификацией беспилотник начал тормозить лишь за 1,3 секунды до столкновения, приведшего к смерти пешехода. В более позднем отчете NTSB отмечалось, что автоматизированная система беспилотного автомобиля, сбившего насмерть пешехода в г. Темпе, просто не была запрограммирована на распознавание людей, пересекающих улицу вне пешеходного перехода. Это и затруднило быстрое распознавание препятствия на дороге и фатально задержало принятие команды на экстренное торможение.
Такой пример наглядно иллюстрирует множество ситуаций, когда искусственный интеллект может “обдумывать” различные вещи совершенно иначе, чем человек и оказался к ней совершенно не готов к столь банальной ситуации, как пешеход в неположенном месте. В более общем случае, столкнувшись с чем-то новым для себя, системы на ИИ будут перебирать варианты из множества ответных действий, что приведет к контрпродуктивным, а иногда –трагичным исходам.
Аналогичным образом, противоречащее “человеческому” здравому смыслу поведение ИИ также стоит за таким биржевым феноменом, как flash crash (“вспышка”, “молниеносный обвал”), когда цены на акции резко проседают перед последующим отскоком. Такие молниеносные обвалы обычно объясняются поведением ИИ-систем, работающих по прописанным алгоритмам или командам, писал бывший инвестиционный банкир Goldman Sachs Мэтт Левайн в своей авторской колонке Bloomberg 3 января 2019 г. Иногда эти команды могут очень сильно отличаться от поведения человека в реальном мире.
Например, многие люди, владеющие, скажем, акциями Tesla, продали бы их, если бы цена удвоилась. А те, кто ими не владеют, купили – если бы цена упала на 50%. Но очень немногие из этих людей потрудились проинформировать брокеров о своих пожеланиях – просто нет такой надобности. Если цена упадет на 50%, можно подать заявку на покупку; если удвоится – продать. Но думать об этом прямо сейчас нет нужды... Но если слишком много людей захочет продать одновременно – или если один человек захочет продать сразу много, возникнет небольшая, чисто техническая проблема. График рыночного спроса, заложенный в компьютерную систему, очень примерный и ограниченный. Он отражает не фактический спрос на что-либо в мире, но заявки людей, которые люди потрудились заложить в компьютерные системы на основе текущей цены”.
Неорганизованный характер запрограммированного графика рыночного спроса, вкупе со многими другими сложными алгоритмическими факторами может привести одить к таким сценариям неожиданного обвала. По мнению Левайна, это не тот случай алгоритма “черного ящика”, когда поведение не имеет логичного объяснения для человека, а, скорее, это обратный случай: поведение людей становится непостижимым для компьютера. Машинное обучение позволяет ИИ выучить многие элементы поведения человека довольно эффективно – покупать и продавать акции по определенной цене, даже вести машину по улицам города самостоятельно. Однако эта эффективность имеет значительный изъян: ИИ не может полностью изучить все возможные аспекты. У современных систем ИИ возникают сложности в неожиданных и незапрограммированных заранее ситуациях, и даже в случае с неконтролируемым и глубоким машинным обучением этот процесс все равно идет на основе проб и ошибок. А ошибки могут означать серьезные потери для человека.
Ограничения ИИ в новых ситуациях ограничивает его применение в сфере корпоративного комплайенса. Международные преступные синдикаты могут иметь очень комплексную, хорошо организованную структуру, позволяющую им находить обходные пути вливания “грязных” денег в финансовые системы стран мира. Компьютер не может учесть и коррупционный фактор. Ушлые преступники всегда найдут лазейки в системе. Поэтому самый эффективный способ противодействия отмыванию –использование не менее адаптивного подхода к анализу рисков и расследованиям, который ИИ самостоятельно обеспечить не сможет.
Эта мысль привела к росту скептицизма в отношении перспектив массового распространения технологий ИИ. Есть мнение, что искусственный интеллект всегда будет инструментом усиления социального неравенства и дискриминации. Такие примеры действительно бывали. В октябре 2018 г. агентство Reuters сообщило о приостановке компанией Amazon использования инструмента рекрутинга на основе ИИ, после того как выяснилось, что компьютер явно отдавал предпочтение анкетам от мужских кандидатов на топовые позиции в компании. Программа была Запущена в 2014 г. Элемент машинного обучения основывался на анализе всех предыдущих резюме. Но из-за засилия сотрудников-мужчин в технологическом секторе в течение предыдущих 10 лет, компьютер обучался в основном именно на “мужских” анкетах. Поэтому программа ставила более низкие баллы, например, выпускницам женских колледжей, сколь бы одаренными они ни были, или даже просто анкетам, содержащим упоминания слова “женский” в каком-либо контексте. Программа даже научилась “дискриминировать” на основе словесных оборотов, более характерных для представителей мужского рода. Хотя Amazon эти ошибки исправила, от проекта пришлось отказаться, так как при его колоссальном объеме с технической точки зрения уже нельзя было быть уверенными, что в систему не закрались еще какие-либо элементы социального неравенства. Но такие инструменты сегодня используют многие компании, рискуя нарушить раздел VII Закона США о гражданских правах 1964 г.
По аналогии с растущим спросом на применение ИИ в рекрутинге на основе анализа данных резюме растет интерес к применению ИИ в качестве инструмента прогнозирования рисков. Постепенно такие ИИ-инструменты внедряются в судебную систему и иногда даже используются для вынесения приговоров. Но и здесь без проблемы смещения дело не обходится.
В мае 2016 г. некоммерческая организация журналистов-расследователей ProPublica оценила эффективность системы прогнозирования рисков по 7000 арестованных в 2013 – 2014 гг. в округе Бровард (Флорида). Для оценки рисков использовалсь разработка компании Northpointe под названием “Correctional Offender Management Profiling for Alternative Sanctions” (“COMPAS”)
Исследователи сопоставили результаты анализа риска правонарушений по COMPAS с фактическими данными повторных правонарушений в следующие 2 года. Оказалось, что этот инструмент очень ненадежен. Лишь 20% людей, по которым было спрогнозировано совершение преступления, фактические его совершили впоследствии. Более того, COMPAS показал системное смещение в сторону чернокожего населения: афроамериканцы на 77% чаще относились к рисковой категории потенциальных серьезных преступников в будущем, и на 44% – в плане совершения любого правонарушения. Между тем, в программу были занесены и учитывались все факторы возраста, половой принадлежности, криминальной истории.
В перечисленных случаях ситуацию осложняет низкая прозрачность вокруг систем машинного обучения. Даже в случае с COMPAS адвокаты, допущенные к отчетам системы, не имели представления о том, как данные по их подзащитным конвертируются в количественный прогноз. А корпорации свои подходы к найму нового персонала тем более будут скрывать.
Одним из самых больших недостатков ИИ является фокус его внимания на действиях, а не их исполнителях. В анализе больших объемов данных из ограниченного числа источников ему нет равных, но только человек способен смотреть “вширь”, анализируя множество самых разных источников и сопоставляя эту информацию. Это очень важно (особенно в процедурах due diligence) для минимизации проявления ошибочно-положительных результатов. Как иллюстрация, при использовании ИИ в проверке потенциальных контрагентов по официальным “черным спискам” система может выдавать предупреждения при совпадении имени физлица или организации, если имя или название являются распространенными. На деле же никакого отношения потенциальный контрагент к лицу из санкционного списка может не иметь, поэтому наблюдателю приходится сверяться с дополнительными источниками информации (реестры организаций, медийные источники и т.д.), чтобы исключить это ложное совпадение, либо подтвердить его, если компьютер в самом деле обнаружил находящееся под санкциями лицо.
На практике проверки due diligence часто могут пойти в направлении, явно непредусмотренном на этапе планирования. Это как раз хорошо – только компьютер к этому отношения не имеет, и вот почему. Часто направления исследования логически формируются уже в процессе на основе потребностей клиента, природы деловых рисков или типа обнаруженной информации. Антикоррупционный комплайенс традиционно требует гибкости в выборе методологии проведения исследования, чтобы получилась полная картина риска в деловом партнерстве с контрагентом. Авторы отчета из Kreller Group делятся показательным примером из собственной практики: относительно недавно к ним обратился клиент с просьбой проверить интернет-сайт одной компании, позиционирующей себя в роли инвестиционного консультанта. Подозрительным было то, тот сайт не являлся ее официальным сайтом, а данные по регистрации домена были скрыты, что делало невозможным немедленное определение того, кто именно его зарегистрировал. По мере изучения вопроса выявилась возможная связь этого сайта с другим, принадлежащем медийной организации, причем никакого отношения эта медийная организация к инвестиционному консалтингу не имела. С учетом удивительного совпадения расследование далее пошло в этом направлении, пока связь между двумя порталами в самом деле не подтвердилась – через одного человека, аффилированного с медийной группой, который и зарегистрировал неофициальный сайт компании якобы в сфере инвестиционного консалтинга. Подтвердить связь удалось благодаря стилистике графических изображений на обоих сайтах.
В корпоративных проверках due diligence, много места занимают рутинные процедуры анализа различных юридических документов, публикаций в прессе и так далее. Отсеивание полезной информации требует определенной креативности, иначе клиент не получит полного представления о риске, который несет с собой потенциальное партнерство с интересующей его организацией или физлицом, и иногда такая креативность – прерогатива, заметим, человеческого, а не искусственного разума – приносит свои плоды. Для примера, в практике работы аналитиков Kreller был случай, когда место проведения мероприятия удалось установить, сопоставляя фотографии из Facebook одной интересующей клиента личности с фотографиями в Instagram, где то же самое место использовалось в целях, не имеющих отношения к бизнесу (речь шла о поминках). Сопоставление получилось провести благодаря ковровому покрытию одинаковой раскраски в обоих случаях. В другом примере к компании как-то обратились с просьбой проверить деловые контакты выходца из Индии, ныне постоянно проживающего в Объединенных Арабских Эмиратах. В ходе проверки выяснилось, что большая часть деловых связей по вполне очевидным причинам ограничена индийским штатом Керала, откуда был родом бизнесмен. Его активность ОАЭ получилось установить на основе сопоставления данных из социальных медиа индийских контактов этой особы с публично доступными данными Торговой палаты в Абу-Даби. И в том, и в другом случае это сопоставление провел, конечно, живой человек, а не машина.
В принципе, ИИ можно научить и этому – “узнавать” рисунок коврового покрытия, фиксировать схожести стилистического оформления двух, казалось бы, никак не связанных интернет-сайтов, или соотносить опубликованные Торговой палатой Абу-Даби пресс-релизы с постами на Facebook, однако важно отметить, что само выбранное направление во всех случаях базировалось на уникальных особенностях каждого исследования. Общего алгоритма движения не было, а это значит, что ИИ мог вообще в том направлении даже не двинуться. Таких случаев немало, и все они хорошо иллюстрируют слабости приложений на основе искусственного интеллекта, по крайней мере, в области due diligence. Уникальная природа проведения всесторонних проверок порождает уже в ходе процесса уникальные и подчас удивительные откровения. Это сродни работе умелого психолога: клиент может ненароком обронить незначительную с его точки зрения фразу, ухватившись за которую, как за путеводную нить, опытный эксперт способен раскопать глубинную причину конфликта, и даже докопаться до психотравмы родом из детства. ИИ – очень точный и мощный инструмент сродни лазеру, который эффективен, если знать, где именно “резать”. С другой стороны, исследователь-человек сродни мульти-инструменту, который снимает внешнее покрытие и определяет ту область, где требуется вмешательство.
Фактор новизны ситуации – не единственный, которой высвечивает неоспоримые преимущества человеческого интеллекта перед искусственным. Человеческий разум по-прежнему необходим в ситуациях, когда требуется учитывать разнообразные геополитические факторы, одним из примеров которых является вступивший в силу в мае прошлого года Общий регламент по защите персональных данных (GDPR), обеспечивший европейских граждан гораздо большими возможностями по контролю сбора и анализа их личных данных. В США власти Калифорнии одобрили аналогичный закон (California Consumer Privacy Act – CCPA), который вступит в силу с начала января. Газета New York Times считает эти новые правила регулирования очень значительными в плане обеспечения эффективного надзора за сбором и хранением данных технологическими компаниями в США. Если теперь вернуться к примеру с использованием приложений на основе ИИ для подбора персонала, поневоле задумаешься, сколь значительными могут оказаться для компании последствия. Ведь простые граждане теперь получат право запросить сведения относительно не только того, какие именно данные по ним были получены, но и что стало причиной обращения за ними, и какие методы при этом использовались. Если ИИ-системы по-прежнему применяются в этих целях, можно кое-что узнать об алгоритмах, которым они при этом следуют.
Когда проверки due diligence проводят живые специалисты, они полагаются в общем случае на информацию из двух типов источников: публично доступные данные и данные, которые раскрываются в рамках межличностного взаимодействия. К первой категории относятся публично доступные реестры юрлиц, юридические документы, документы регистрации на землю. Их основное преимущество заключается в самой открытости: источники поступления данных там изложены предельно четко, а степень открытости также поддается регулированию в зависимости от обоснованности опасений лица, чьи данные находятся в публичном доступе, и действующих требований закона. В отличие от информации, которую иногда собирает ИИ, данные из открытых источников обычно не содержат чувствительных коммерческих секретов.
Помимо жесткого законодательного регулирования сбора и хранения персональных данных, существенные ограничения ИИ имеет в юрисдикциях, где интернет и медиа находятся под контролем и цензурой государства. Более того, растут опасения, что технологии ИИ все активнее начинают сегодня применяться для манипулирования общественным сознанием в интересах авторитарного государства. Например, для генерирования новостных “фейков”, в том числе для влияния на результаты выборов, и для шпионажа за личной жизнью граждан. Современный американский философ и теоретик искусственного интеллекта Дэниел Деннет частично осветил эту проблему в эссе для издания Wired. Он пишет, что ИИ научили создавать почти идеальные новостные “подделки” по событиям, которые никогда не происходили. Это может вскоре сделать абсолютно бесполезными все инструменты расследования, которыми мы привыкли пользоваться за последние 150 лет. “Информационная эра – это также эра дезинформации”, – пишет Деннет.
Второй способ получения информации – межличностное взаимодействие. Более актуальна данная форма в странах с сильной цензурой и авторитарным контролем. В пример аналитики Kreller в своем отчете приводят Узбекистан, который, согласно последнему рейтингу Transparency International, оказался на 158-м месте из 180 по уровню коррупции. Здесь отмечена сильная нехватка независимых СМИ и независимой судебной системы. В своем отчете Kreller не раскрывают имя арестованного управляющего одной энергетической компании, которому вменяли хищения в особо крупных размерах, о чем сообщали медиа-источники. Если бы проверку проводил ИИ, он бы анализировал именно новостные сообщения. Криминальных записей, способных подтвердить нарушение закона, не обнаружилось. Зато скрытно проведенные личные запросы одного из представителей Kreller на месте дали основание думать, что тот арест имел политическую мотивацию. Более того, неназванные источники также сообщили, что это был один из множества арестованных бизнесменов, которые были впоследствии реабилитированы после смены политического режима. Хотя после этого отдельные медиа сообщили о самом факте освобождения обвиняемого, никто из них не осветил истинных причин реабилитации.
В такой ситуации подход к расследованию только лишь на основе ИИ не принес бы объективных результатов, так как искусственный интеллект не принял бы во внимание критические детали. Его можно использовать для сканирования информации в новостных источниках, но этот поиск критически теряет в эффективности, если в юрисдикции действует жесткая политическая цензура. Как в случае с Узбекистаном, намного эффективнее оказались лично проведенные осторожные расспросы об обстоятельствах дела: это позволило получить контекстуальное представление об аресте и обстоятельствах последующего освобождения.
Чего можно ждать в будущем от прикладного ИИ в корпоративном комплайенсе? Смогут ли когда-нибудь модификации суперкомпьютера IBM Watson полностью заменить собой живых людей? “Когда-нибудь” через много лет – возможно… В финансовом секторе у искусственного интеллекта уже выходит довольно продолжительная история успешного применения в области обнаружения финансовых хищений и отмывания нелегальных доходов. И в более широкой области корпоративного комплайенса ИИ также выглядит перспективно благодаря несопоставимой способности к быстрой обработке обширных массивов данных с целью обнаружения в них аномалий и необычных проявлений. Само собой, ИИ может легко справляться с менее творческой, но при этом рутинной повторяющейся работой. Во всех таких случаях ИИ показывает себя эффективным инструментом с высокими показателями производительности.
ИИ проявляет свои ограничения, будучи поставленным перед необходимостью работать с непривычными источниками данных либо в новых обстоятельствах. Именно креативность всегда была неотъемлемой составляющей эффективного расследования большинства хищений, особенно в современном мире, когда мошенники разрабатывают все новые хитроумные схемы. Только живой человек способен внести нужные коррективы в направление расследования, опираясь на свое внутреннее чутье и множество несвязанных данных (геополитический контекст, ожидания клиента и прочее). Учесть все это самостоятельно, без предварительного инструктажа, ИИ-система не способна.
Известно множество примеров очень успешного применения “гибридной” модели взаимодействия человека и компьютера. Упомянутые в отчете Гэри Крауш из Gursey Schneider LLP и Джон Колтхарт из MindBridge связывают свой успех в применении такого подхода с четким разделением труда, подобным тому, как это реализовано в оперативных группах по разминированию взрывных устройств. Пока ИИ идентифицирует отличительные черты конкретного события (“почерк” и свидетельства наличия хищения, например), аналитики проводят “разминирование” – собственно криминалистический аудит на основе свидетельств. Данный подход можно использовать в более общих корпоративных процедурах due diligence.
Большая часть работы, имеющей предписательный характер (например, поиск по базам данных и санкционным спискам в соответствии с четко определенными критериями), проводится компьютером. Благодаря этому специалисты могут фокусировано подойти к процессу расследования. ИИ-программа, например, может выявить совпадение имени по некоему политически значимому лицу (“Politically exposed person”, PEP — термин из области финансового регулирования, обозначающее лицо, которое играет существенную политическую роль в своей стране или на международном уровне). Живой аналитик далее уже проверяет, соответствует ли обнаруженное совпадением тому самому лицу, и если так, только он сможет далее провести углубленный контекстуальный анализ на предмет его политических связей и предпочтений, чтобы в конечном итоге оценить коррупционный риск сотрудничества клиента с этим лицом. Конечно, чтобы такое плодотворное сотрудничество было возможным, сами эксперты должны быть в курсе всех ограничений ИИ и уметь их компенсировать своим личным участием в расследовании.
“Гибридный” подход несет множество преимуществ самой компании и клиентам: быстрота и эффективность обработки отчетов и больших массивов данных, меньшие трудозатраты на перевод регистрационных документов, решение бюрократических проблем с заполнением необходимых форм, и т.д. Это позволяет специалистам применять риск-ориентированный подход и “копать” в направлениях, которые с наибольшей вероятностью принесут результаты. Кроме того, эффективное сотрудничество ИИ и человека оказывает влияние и на итоговые показатели прибыли клиента благодаря экономии финансовых средств, которые в противном случае могли быть потеряны в результате хищений, плохих сделок с неблагонадежными деловыми партнерами, штрафов, репутационных потерь и т.п.
Искусственный интеллект на бытовом уровне часто воспринимается как панацея в очень многих областях. На самом деле, это действительно очень мощный инструмент – но с ограниченной областью применения. В частности, в такой сферк как корпоративные проверки due diligence, подтверждаеся старая пословица “одна голова хорошо, а две лучше”.
Основные выводы
· Применение ИИ в анализе транзакций, как это часто делается сегодня в финансовой сфере, ведет к ошибочно-положительным результатам. Это отвлекает фокус внимания на случаи, где на самом деле нет высокого риска;
· Несмотря на то, что ИИ-приложения способны пропускать через себя огромные объемы данных, обнаруживая в них аномалии, регулирующие и правоохранительные органы акцентируются на “агентах” и организациях, от имени которых те действуют. Таким образом, они могут обнаружить риски и нарушения, ускользнувшие от внимания систем ИИ
· Машинное обучение, которое фокусируется на анализе транзакций, упускает важную информацию, более заметную в уникальном бизнес-контексте, например, в социально-политических аспектах;
· Излишняя зависимость от использования алгоритмов “черного ящика” в оценке, особенно в таких сферах как рекрутинг, может иметь серьезные регулятивные последствия;
· У машинного обучения серьезные ограничения в обработке новых форм данных и поиске новых, незапрограммированных заранее вариантов решений.
Словарь основных терминов
· Искусственная нейронная сеть (Artificial neural network – ANN) – алгоритм ИИ, попытка имитации человеческого мозга: аналогия взаимосвязанных “нейронных” сетей, посылающих информацию друг другу
· Алгоритмы “черного ящика” (Black box algorithms) – ситуация, когда процесс принятия решений или его итоги не могут быть объяснены компьютером или человеком, но используются как данные
· Компьютерное видение – область ИИ, касающаяся обучения машин восприятию и интерпретации визуального мира
· Глубокое обучение – совокупность взаимосвязанных искусственных нейронных сетей, обеспечивающих более глубокое машинное обучение
· Генеративно-состязательная сеть (Generative adversarial networks) – две нейронные сети, “обученные” работать с одним и тем же набором данных – в этом случае, когда одна пытается создавать похожий контент, вторая сверяет его на соответствие изначальному варианту и тем самым заставляет создающую сеть вносить коррективы. Принцип может использоваться в компьютерном творчестве (создание рисунков, написание музыки)
· Машинное обучение – алгоритм, подразумевающий обучение компьютерных систем на основе данных, с целью выполнения определенных задач. Именно в этой области сегодня наблюдается настоящий исследовательский “бум”
· Обработка естественного языка (Natural language processing) – направление, связанное с обработкой и синтезом естественных языков, письменных и устных
· Контролируемое обучение – техника машинного обучения решению специфических задач на основе набора данных, которые предварительно были размечены живым человеком. Прогнозирование погоды – самый подходящий пример этому
Неконтролируемое обучение – машинное обучение на основе неразмеченных данных. В этом случае ИИ сам должен обнаружить во всем этом смысл
Источник: Compliance Week