Воскресенье, 19.05.2024
×
Фондовый рынок с Ольгой Коношевской - 19.05.2024

Big-data банков и телекомов: кто и как внедряет большие данные

Не приведет ли эпоха «больших данных» к ликвидации правительств и спецслужб?

Больши́е да́нные (англ. big data,) — обозначение структурированных и неструктурированных данных огромных объёмов и значительного многообразия, эффективно обрабатываемых горизонтально масштабируемыми программными инструментами, появившимися в конце 2000-х годов и альтернативных традиционным системам управления базами данных и решениям класса Business Intelligence.

В широком смысле о «больших данных» говорят, как о социально-экономическом феномене, связанном с появлением технологических возможностей анализировать огромные массивы данных, в некоторых проблемных областях — весь мировой объём данных, и вытекающих из этого трансформационных последствий.

В качестве определяющих характеристик для больших данных традиционно выделяют «три V»: объём (англ. volume, в смысле величины физического объёма), скорость (velocity в смыслах как скорости прироста, так и необходимости высокоскоростной обработки и получения результатов), многообразие (variety, в смысле возможности одновременной обработки различных типов структурированных и полуструктурированных данных); в дальнейшем возникли различные вариации и интерпретации этого признака.

Широкое введение термина «большие данные» связывают с Клиффордом Линчем, редактором журнала Nature, подготовившим к 03.09.2008 года специальный выпуск с темой «Как могут повлиять на будущее науки технологии, открывающие возможности работы с большими объёмами данных?», в котором были собраны материалы о феномене взрывного роста объёмов и многообразия обрабатываемых данных и технологических перспективах в парадигме вероятного скачка «от количества к качеству»; термин был предложен по аналогии с расхожими в деловой англоязычной среде метафорами «большая нефть», «большая руда».

Несмотря на то, что термин вводился в академической среде и прежде всего разбиралась проблема роста и многообразия научных данных, начиная с 2009 года термин широко распространился в деловой прессе, а к 2010 году относят появление первых продуктов и решений, относящихся исключительно и непосредственно к проблеме обработки больших данных. К 2011 году большинство крупнейших поставщиков информационных технологий для организаций в своих деловых стратегиях используют понятие о больших данных, в том числе IBM, Oracle, Microsoft, Hewlett-Packard, EMC, а основные аналитики рынка информационных технологий посвящают концепции выделенные исследования.

В 2011 году Gartner отметил большие данные как тренд номер два в информационно-технологической инфраструктуре (после виртуализации и как более существенный, чем энергосбережение и мониторинг). В это же время прогнозировалось, что внедрение технологий больших данных наибольшее влияние окажет на информационные технологии в производстве, здравоохранении, торговле, государственном управлении, а также в сферах и отраслях, где регистрируются индивидуальные перемещения ресурсов.

С 2013 года большие данные как академический предмет изучаются в появившихся вузовских программах по науке о данных и вычислительным наукам и инженерии.

В 2015 году Gartner исключил большие данные из цикла зрелости новых технологий и прекратил выпускать выходивший в 2011—2014 годы отдельный цикл зрелости технологий больших данных, мотивировав это переходом от этапа шумихи к практическому применению. Технологии, фигурировавшие в выделенном цикле зрелости, по большей части перешли в специальные циклы по продвинутой аналитике и науке о данных, по BI и анализу данных, корпоративному управлению информацией, резидентным вычислениям, информационной инфраструктуре.

Известно, что большие данные существовали задолго до появления самого термина. Поисковики и соцсети изначально строили свои сервисы на технологиях обработки big data. Сегодня к большим данным обратился и традиционный бизнес. Прежде всего, в извлечении знания из накопленных клиентами больших данных, заинтересованы представители зрелых и высококонкурентных рынков, им нужны новые инструменты повышения эффективности. Из 108 компаний, опрошенных в феврале 2015 агентством СNews Analytics, 40 уже приступили к работе с большими данными.

Главными покупателями таких решений остаются банки (24 из 43 респондентов) и телеком-операторы (8 из 12 собеседников СNews). Также технологии обработки больших данных активно используются в онлайн-рекламе и ритейле.

В госсекторе, где технологии big data могут дать взрывной прирост эффективности, они используются относительно слабо. По словам экспертов, среди госструктур обработку big data внедрили Федеральная налоговая служба, аналитический центр правительства России, Пенсионный фонд, правительство Москвы, Фонд обязательного медицинского страхования, Федеральная служба безопасности, Следственный комитет и Служба внешней разведки.

О реальных внедрениях в отечественной медицине речь пока не идет, несмотря на высочайший потенциал.

Основные поставщики инфраструктуры

SAP

Компания SAP была создана пятью бывшими сотрудниками IBM под наименованием нем. Systemanalyse und Programmentwicklung (англ. System Analysis and Program Development, рус. Системный анализ и разработка программ) в городе Вайнхайме. Первый офис фирмы находился в Мангейме.

В октябре 2007 года корпорация за $6,8 млрд купила французскую фирму Business Objects — разработчика программного обеспечения для анализа данных.

В июне 2008 года была приобретена американская компания Visiprise, базирующаяся в городе Альфаретта, штат Джорджия, занимающаяся разработкой программного обеспечения, позволяющего автоматизировать процессы производства и контроля качества промышленным предприятиям.

В мае 2010 года за $5,8 млрд была поглощена компания Sybase — американский производитель программного обеспечения для обработки данных.

В декабре 2011 года за $3,4 млрд была приобретена компания SuccessFactors, предоставляющая приложения по управлению человеческим капиталом по модели SaaS.

Среди поглощений 2012—2013 годов — компании Ariba ($4,3 млрд, глобальная сеть поставщиков) и Kxen (разработчик программного обеспечения для предсказательной аналитики на базе теории Вапника-Червоненкиса).

В России продуктами SAP для работы с большими данными пользуются, например, Федеральная налоговая служба, Пенсионный фонд, банковская группа «Открытие» и энергетический холдинг «Сибирская генерирующая компания». В октябре 2014 года SAP запустила 9-месячный акселератор для стартапов в сфере big data, четыре из них дошли до уровня прототипов.

Oracle

Компания является вторым по объёмам продаж разработчиком программного обеспечения после Microsoft, владея по состоянию на 2014 год долей около 30 % глобального рынка программного обеспечения.

В 2014 году Oracle купила облачную платформу управления большими данными BlueKai, получив ее массивы неструктурированной информации (самые большие на американском рынке).

В линейке вендора — аналитические СУБД Oracle Database, Oracle MySQL и Oracle Essbase, СУБД в оперативной памяти Oracle TimesTen, Oracle Event Processing на базе Hadoop, программно-аппаратные решения Oracle Big Data Appliance, Exadata и Exalytics.

В России продуктами Oracle пользуются, например, ФНС и «Альфа-Банк».

IBM

IBM активно развивает свой аналитический бизнес, который был сформирован на основе двух приобретённых компаний: это купленная в 2008 году за $5 млрд компания Cognos и приобретённая в 2009 году за $1,2 млрд компания SPSS — они и сформировали основной набор программных инструментов для бизнес-анализа и business intelligence. В рамках расширения аналитического бизнеса, в 2014 году IBM объявила об инвестировании $1 млрд в развитие проекта Watson и о создании нового подразделения когнитивных вычислений Watson Business Group, в задачи которого входит разработка и коммерциализация облачных когнитивных (с элементами искусственного интеллекта) сервисов в таких областях, как здравоохранение, финансы, путешествия, телекоммуникации и розничная торговля. В январе 2016 года IBM приобрела примерно за $2 млрд цифровой бизнес компании The Weather Company, который был интегрирован в платформу Watson и другие облачные сервисы компании. А для развития лишь одного облачного медицинского сервиса Watson Health Cloud компания IBM потратила свыше $4 млрд на покупку IT-компаний из сектора здравоохранения, например, в феврале 2016 года IBM приобрела за $2,6 млрд компанию Truven Health Analytics, предлагающую сервисы управления и анализа медицинской информации учреждениям здравоохранения, государственным органам и страховым компаниям.

В начале 2017 года был заключён альянс между компаниями IBM и Salesforce, в рамках которого обе компании будут совместно продвигать инструменты прогнозной аналитики, а к системе IBM Watson будет подключена платформа искусственного интеллекта Salesforce Einstein, которая поможет лучше понимать и использовать генерируемую аналитическую информацию в области продаж.

Крупнейшие потребители решений IBM для больших данных в России — Пенсионный фонд и компания «Вымпелком».

Microsoft

Компания предлагает технологии big data для любого масштаба бизнеса. Небольшим компаниям адресован инструмент Power BI, который входит в Office 365 и встроен в приложение Excel. Сервис включает публичный и корпоративный каталоги данных, новые инструменты поиска информации, интерактивную визуализацию и широкие возможности для совместной работы.

Ряд решений для работы с большими данными доступен пользователям облачной платформы Microsoft Azure. Так, обрабатывать информацию в режиме реального времени помогает Azure Stream Analytics, извлекать сведения из различных источников и управлять потоками данных — Azure Data Factory, а составлять бизнес-прогнозы — инструмент машинного обучения Azure Machine Learning.

Другая платформа Microsoft — SQL Server — позволяет управлять любыми объемами информации в облаке или в собственной инфраструктуре. В SQL Server 2014 реализована технология in-memory OLTP, которая в среднем в 100 раз повышает производительность обработки транзакций за счет выборочного переноса высоконагруженных таблиц в оперативную память.

Teradata

Американская компания специализируется на программно-аппаратных комплексах для обработки и анализа данных. В линейку продуктов для big data входят устройство Teradata Data Warehouse Appliance, платформа Teradata Aster Discovery и аналитическое ПО. Также компания оказывает услуги по анализу больших данных.

В России решения Teradata внедрены у Федеральной налоговой службы, банка «ВТБ24», «Сбербанка» и «Ситибанка».

Pivotal (EMC)

В 2013 году корпорация EMC открыла подразделение Pivotal. Оно занимается обработкой больших данных и поставляет решения PaaS (платформа как услуга) и IТaaS (ИТ как услуга). Для big data компания предлагает базу данных Greenplum, SQL-механизм обработки HAWQ для Hadoop и in-memory СУБД GemFire. В марте корпорация представила озеро данных Federation Business Data Lake.

В России решения EMC используют «Тинькофф-банк» и компания «Тройка Диалог» (ныне Sberbank CIB).

SAS

SAS считается одним из пионеров business intelligence. Компания продает решения для бизнес-аналитики, управления данными и их анализа. Заказчикам SAS предлагает консалтинг, внедрение, обучение и техническую поддержку.

Продукты SAS для big data решают различные типы задач. В линейку входят технологии управления распределенными вычислениями SAS Grid Computing, продукты на базе in-database вычислений и продукты на базе технологии in-memory. К последней группе относятся платформа для интерактивного исследования и визуализации данных SAS Visual Analytics, интерактивная среда для анализа данных SAS In-Memory Statistics, инструмент для создания аналитических моделей SAS Visual Statistics, средство для ускоренного аналитического моделирования SAS Factory Miner, SAS Event Stream Processing Engine для анализа потока событий в режиме реального времени, механизм анализа текста SAS High-Performance Text Mining и другие инструменты.

Продукты компании для работы с большими данными используют «Сбербанк», «Тинькофф-банк», «ЮниКредит Банк», ВТБ24, РЖД и Теле2.

HP Vertica

Для больших данных компания поставляет облачную платформу HP Haven, базу данных HP Vertica Community Edition для бюджетного создания продуктов на основе обработки больших данных, HP Vertica Enterprise Edition — для более масштабных проектов, софт HP Autonomy — для анализа разноформатной информации (видео, аудио, соцсетей).

Технологии НР для big data используются для анализа текстов объявлений Avito, таргетирования рекламы в онлайн-кинотеатре Ivi.ru, анализа поведения клиентов и расчетов в реальном времени в банке «Открытие», автоматизации отчетности в сети «Глория Джинс», ускорения тестирования продуктов в «Связь-банке». Первым российским покупателем аналитической системы HP Vertica стала Yota Networks.

Решения HP Vertica для хранения и анализа больших данных использует Facebook.

Cloudera

Компания из Калифорнии продает наиболее популярный дистрибутив свободно распространяемого фреймворка Hadoop. Полная версия продукта Cloudera Distribution Hadoop включает программные инструменты Cloudera Impala, Cloudera Search, Apache HBase, Accumulo, Spark и Kafka. Аппаратных решений у компании нет. В прошлом году корпорация Intel инвестировала в Cloudera $740 млн.

В России решениями Cloudera пользуются «Сбербанк» и «Тинькофф-банк».

Google

На рынок бизнес-аналитики корпорация вышла в 2012 году, запустив облачный сервис анализа больших данных в режиме реального времени Google BigQuery. Через год его интегрировали в платную версию счетчика Google Analytics Premium. Обновленная версия BigQuery способна анализировать до 100 тысяч строк данных в секунду. Недавно Google представила новую специализированную базу данных Cloud Bigtable, которая подходит для big data лучше предшественницы Cloud Dataflow.

В России решения Google для больших данных можно купить у официальных реселлеров — российского представительства украинской компании OWOX и отечественных агентств iConText, Adventum, «Кокос», AdLabs и i-Media.

По открытым источникам, сервисом BigQuery пользуются «М.Видео», «Юлмарт», «Связной», Ozon.Travel, «Эльдорадо», Onlinetours, Anywayanyday и «Вымпелком».

Amazon Web Services
Компания создана в 2006 году как облачный сервис хранения данных. В последние годы AWS расширяет линейку решений для больших данных. Это NoSQL-база данных Amazon DynamoDB, реляционная СУБД Amazon RDS, сервис анализа потоковых данных в режиме реального времени Amazon Kinesis, петабайтное хранилище данных Amazon Redshift, архив Amazon Glacier. Также AWS предоставляет Hadoop через облачный сервис Amazon Elastic MapReduce.

В рамках специальной программы поддержки AWS дает молодым предпринимателям бесплатный доступ к своим облачным ресурсам. Так что услугами компании пользуются многие российские и зарубежные стартапы. В прошлом году к программе AWS Activate присоединился фонд «Сколково», обеспечив своим резидентам доступ к продуктам Amazon.

Крупные внедрения

«Мегафон»

Оператор начал осваивать технологии обработки big data несколько лет назад. Основная цель компании — оптимизация затрат и улучшение обслуживания абонентов. В прошлом году «Мегафон» договорился с правительством Москвы предоставлять информацию о структуре столичного населения.

В 2013 году «Мегафон» занялся геоаналитикой — изначально для прогнозирования нагрузок на собственную сеть. Сегодня это направление выросло в отдельный сервис анализа пассажироперевозок для транспортных компаний. Приложение показывает объем пассажиропотока, популярные маршруты и раскладку по видам транспорта. В июле оператор начал переговоры с РЖД, предложив ей свое решение для прогнозирования популярных маршрутов. Совместный проект запустится не ранее 2016 года.

Пока направление big data приносит «Мегафону» около 1% выручки. Для работы с массивами больших данных телеком-оператор использует решения на базе платформы Hadoop. Приоритетом в этой работе компания считает конфиденциальность информации о клиентах, поэтому не привлекает к анализу сторонние разработки.

«Билайн»

Телекоммуникационный холдинг «Вымпелком» использует анализ больших данных для мониторинга качества обслуживания клиентов, подбора сервисов и тарифов, борьбы с мошенничеством и спамом, оптимизации работы колл-центра за счет прогнозирования причины обращения и других задач. Разработкой и внедрением решений в сфере big data занимается специальное подразделение. Массивы данных анализируют с помощью Hadoop, IBM SPSS, Apache Spark и Vowpal Wabbit.

В мае прошлого года «Вымпелком» представила пилотный проект «Умное оповещение». Технология позволяет предупреждать людей, находящихся в зоне чрезвычайной ситуации, а также тех, кто туда может попасть.

В конце мая 2015 года оператор запустил пилотный проект по оценке кредитоспособности своих абонентов. К эксперименту подключились около 20 банков. Они получают от «Вымпелкома» обезличенные скоринговые баллы, рассчитанные по платежам за мобильную связь, оплате услуг со счета мобильного оператора и даже данным геолокации.

В части больших данных компания сотрудничала с Генпланом Москвы, Департаментом транспорта Петербурга, а недавно выиграла тендер Департамента информационных технологий Москвы на SMS-информирование москвичей (сумма контракта 78 млн. рублей).

МТС

Решения для анализа больших данных корпорация внедряет с 2011 года. Информация о профиле потребления интернет-трафика, типах используемых устройств, круге общения и покупках абонента позволяет МТС делать абонентам персональные предложения. Статистику передвижений абонентов компания давно использует для прогнозирования нагрузки на сети. Эти же данные сотовый оператор предоставляет правительству Москвы в рамках совместного проекта по развитию городской инфраструктуры. Как ожидается, мобильная геоаналитика поможет властям определиться с размещением новых магистралей и станций метро. С банками МТС провела пилотный проект по скорингу абонентов. Продукт будет готов до конца года, после завершения технического решения по оценке рисков заемщика.

Также с помощью big data компания намерена прогнозировать поведение абонентов, бороться с мошенничеством, разрабатывать предложения на основе таргетинга, улучшать качество покрытия сети, повышать эффективность управления собственной розничной сетью и развивать радиосеть на основе абонентских данных. Для хранения и обработки данных оператор использует Apache Hadoop, Apache Spark, Cloudera Impala, БД Teradata и решения SAS.

Сбербанк

В стратегии банка на 2014-2018 годы говорится о важности анализа супермассивов данных для качественного обслуживания клиентов, управления рисками и оптимизации затрат. Сейчас банк использует big data для управления рисками, борьбы с мошенничеством, сегментации и оценки кредитоспособности клиентов, управления персоналом, прогнозирования очередей в отделениях, расчета бонусов для сотрудников и других задач.

По данным CNews, Сбербанк применяет Teradata, Cloudera Hadoop, Impala, Zettaset, стек продуктов Apache (Hadoop, HBase, Hive, Mahout, Oozie, Zookeeper, Flume, Solr, Spark и пр.), специализированные базы данных (Neo4j, MongoDB и т.д.) и собственные решения в области data mining, predictive/prescriptive-аналитики, обработки естественного языка.

В организации работает лаборатория по big data. Банк намерен подключить к анализу больше типов своих внутренних данных и задействовать внешние источники (например, данные из соцсетей). В марте Сбербанк купил рекламную платформу Segmento, чтобы использовать ее данные для персонализации предложений своих клиентам и привлечения новых. В июле банк привлек «Яндекс» в качестве консультанта по анализу больших данных.

ВТБ

Банк пользуется большими данными для сегментации и управления оттоком клиентов, формирования финансовой отчетности, анализа отзывов в соцсетях и на форумах. Для этого он применяет решения Teradata, SAS Visual Analytics и SAS Marketing Optimizer.

Альфа-банк

За большие данные банк взялся в 2013 году. Он использует эти технологии для анализа соцсетей и поведения пользователей сайта, оценки кредитоспособности, прогнозирования оттока клиентов, персонализации контента и вторичных продаж. Для этого он работает с платформами хранения и обработки Oracle Exadata, Oracle Big Data Appliance и фреймворком Hadoop.

Возможности дополнительной монетизации своих массивов данных «Альфа-банк» видит в рекомендательных системах, анализе линейки продуктов и предиктивном анализе поведения клиентов.

Тинькофф-банк

С помощью EMC Greenplum, SAS Visual Analytics и Hadoop банк управляет рисками, анализирует потребности потенциальных и существующих клиентов. Большие данные задействованы также в скоринге, маркетинге и продажах.

Газпромбанк

Банк применяет big data для скоринга, противодействия мошенникам, оперативного получения отчетности, персонализации предложений, доскоринговой проверки репутации потенциальных заемщиков, предоставления информации регуляторам и других задач.

Источник информации: Как устроен рынок big data в России, Анна Соколова, экс-редактор раздела «Технологии» на Rusbase.

Главными покупателями решений больших данных, как уже сказано выше, являются банки и телеком-операторы, т.е. структуры которые накапливают и анализируют данные: о транзакциях, накоплениях, кредитах граждан, их личные и деловые переговоры, электронная переписка. Банки фактически уже национализированы, с ними все просто. Специально для телекомов приняли пакет Яровой, два законопроекта, декларировавшиеся их авторами как имеющие антитеррористическую направленность.

Поправки, вносимые этим набором дополнений в федеральное законодательство, можно условно разделить на следующие части:

  • расширение полномочий правоохранительных органов;
  • новые требования к операторам связи и интернет-проектам;
  • новые требования к перевозчикам-экспедиторам и операторам почтовой связи;
  • усиление регулирования религиозно-миссионерской деятельности

На реализацию требований пакета Яровой потребуются следующие затраты:

  • Почте России — 500 млрд руб. единовременных затрат на закупку необходимого оборудования и ежегодно по 100 млрд руб. на обслуживание этого оборудования и на зарплаты сотрудникам, занятым выполнением требований этого закона;
  • другим операторам почтовой связи и логистическим компаниям — до 180 млрд руб., что приведёт к увеличению стоимости доставки товаров и падению количества покупок в интернет-магазинах на 30—40 %;
  • сотовым операторам —2,2 трлн руб. (эту сумму указывали руководители МТС, Билайн, Мегафона и Теле2), что приведёт к росту стоимости услуг связи для конечных потребителей в 2—3 раза. При этом вся отрасль заработала за 2015 г. около 1,7 трлн руб., а средний ежегодный инвестбюджет у операторов «большой тройки» и «Ростелекома» — около 60—70 млрд рублей.
  • В Mail.Ru Group («ВКонтакте», «Одноклассники») оценили расходы на выполнение законопроекта в 1,2—2 млрд $.

По оценке Эдварда Сноудена, принятие закона обойдётся компаниям в 33 млрд долларов США. После принятия закона акции российских операторов сотовой связи упали в цене: акции МТС упали на 2,5%, МегаФона — на 1%.

Уже после подписания этого закона президентом выяснилось, что оборудования, необходимого для хранения таких гигантских объёмов данных, нет не только в России, но и во всём мире. В связи с этим Путин распорядился запустить собственное производство необходимого аппаратного обеспечения. К 1 сентября 2016 года он также поручил проанализировать возможность, сроки и затраты на организацию производства отечественного оборудования и программного обеспечения, нужного для хранения и обработки данных.

На выполнение требований закона Яровой Билайн в течение 5 лет планировал потратить 45, Мегафон — 35-40, МТС — 60 млрд руб. Агентство Fitch оценивало чистые убытки в 2,5-3,3 % от общей выручки, по сравнению с 2017 годом рост капитальных инвестиций составлял 14-23 %. В июне 2018 года интернет-операторы начали повышение тарифов на 8-10%, которое оправдывали затратами на закупку требуемого по законопроекту оборудования.

Соавтор закона Виктор Озеров среди возможных исполнителей указывал Ростех. Дочерняя структура этой фирмы — Национальный центр информатизации, по данным газеты «Ведомости», предлагала создать единый центр хранения и обработки данных, который бы предоставлял операторам связи «соответствующие услуги». Возможными выгодоприобретателями это издание также называло «Ростелеком», предложивший создать систему хранения данных на базе мощностей, которые сейчас используются поисковиком «Спутник».

Из вышеизложенного можно сделать следующие выводы:

Государство стремится к контролю Big Data в государственных банках напрямую, внедряя в том числе все необходимые программные решения.

Государство и спецслужбы, не имея возможности контролировать интернет и телекомы напрямую, решили переложить государственные функции по сбору и хранению данных на частные телекомы, чтобы с одной стороны подорвать их экономически, с другой стороны добиться реализации целей по получению и контролю над интересующими их данными.

Иррациональный страх государства и спецслужб перед высокими технологиями и получаемыми частными компаниями данными будет и дальше приводить к законодательному и административному ужесточению.

Блогер Джереми Эрдман в своей колонке на Medium рассуждает о недостатках больших данных. Он считает, что необходимо остановить этот растущий тренд, пока не поздно.

Технологии сильно прогрессировали. Большие данные и искусственный интеллект позволили нам лучше понимать мир вокруг и друг друга. Данные о наших интересах, онлайн-активности и покупках дают теперь более точную модель нашей личности и характера.

Итак, что же происходит, когда компании собирают и анализируют эту информацию не только для того, чтобы понять нас, но для того чтобы оказать на нас определенное влияние?

В марте о Cambridge Analytica не говорил разве что ленивый. Она прославилась благодаря скандалу с Facebook.

Компания использовала приложение Facebook «This Is your Digital Life», чтобы собирать информацию о 270 тысячах пользователей и их друзьях. В этом приложении пользователи должны были пройти викторину на определение личности, которая измеряла их уровень: открытости, добросовестности, экстраверсии, склонности чаще говорить «да», невроза.

После установки приложение запрашивало разрешение на доступ к личной информации: место проживания, список друзей и посты, которые пользователь отметил как понравившиеся. Cambridge Analytica взяла результаты оценки личности и сравнила их с информацией о 270 тысячах пользователей Facebook, установив взаимосвязи между определенными интересами и особенностями личности.

Cambridge Analytica была политической консалтинговой компанией, поэтому ей нужно было куда большее влияние. Приложение также собрало данные друзей, принявших участие в викторине пользователей.

В итоге Cambridge Analytica получила доступ к данным 81 миллиона пользователей Facebook. На основе установленных взаимосвязей компания составила личностные профили 81 миллиона человек. Затем она использовала их для таргетированной политической рекламы. Характер человека, его данные и предпочтения использовались для того, чтобы повлиять на его поведение как избирателя. Что дальше?

Что произойдет, когда эти данные будут использоваться не только для того, чтобы повлиять на поведение, а чтобы наказать тех, кто отказывается подчиняться?

Не говорит эксперт о главном, что появление таких компаний как Cambridge Analytica, и использование таргетированной политической рекламы, с последующим результатом на выборах, означает, что ликвидация национальных правительств и спецслужб произойдет на горизонте 10-20 лет, а на смену им придут технологичные молодые компании из поколения миллениалов, причем даже более молодые, чем традиционные компании из силиконовой долины.

В статье использованы материалы Википедии.

Заметили ошибку? Выделите её и нажмите CTRL+ENTER
все публикации »
+11 -0
8116
ПОДПИСАТЬСЯ на канал Finversia YouTube Яндекс.Дзен Telegram

обсуждение

Ваш комментарий
Вы зашли как: Гость. Войти через
Канал Finversia на YouTube

календарь эфиров Finversia-TV »

 

Корпоративные новости »

Blocks_DefaultController:render(13)