Большие данные в SEO (цикл IA 1)

  1. Предисловие: Кирпичи ИИ
  2. Использование больших данных для SEO
  3. Я использую R-скрипты для анализа данных и генерации оптимизаций
  4. В идеале знать хотя бы один язык программирования
  5. IA & DATA в SEO теперь являются неотъемлемой частью нашего бизнеса
  6. Остальная часть цикла ИИ

Мобильный сначала в IA первым.

Именно с этих слов генеральный директор Google Сундар Пичаи начал свою ключевую речь на Google I / O 2017.

Именно с этих слов генеральный директор Google Сундар Пичаи начал свою ключевую речь на Google I / O 2017

Искусственный интеллект занимает центральное место на Google I / O 2017

Все сервисы Google сегодня используют кирпичи AI: он присутствует в поиске изображений, Streetview, предложениях Youtube, Gmail, Android или Car. Разговорные агенты используются на фоне глубокого изучения в Google Home и Google Assistant. А как насчет Google Search, который использует машинное обучение в Rankbrain?

Искусственный интеллект разве не постепенно меняет лицо SEO? Со своей стороны я решил перейти к науке о SEO данных (видео) , А как насчет других специалистов по SEO? Я брал здесь интервью у «технических» и «нетехнических» экспертов, в мире SEO уже давно или нет. Каждый из них был выбран по уважительной причине, и, учитывая богатство ответов, вы обнаружите, что я не ошибся в своем выборе.

Эта статья является первой в серии из 3 статей, посвященных искусственному интеллекту:

Прежде чем перейти к советам экспертов, что на самом деле называется IA?

Предисловие: Кирпичи ИИ

Решения по искусственному интеллекту обычно основаны на нескольких фундаментальных строительных блоках, вот основные из них, которые будут упомянуты в моей серии статей «Цикл искусственного интеллекта»:

  • Машинное обучение : вероятностный подход, который дает машине возможность учиться без явного программирования. Это позволяет, например, прогнозирование, классификацию, автоматическую сегментацию и обнаружение корреляции.
  • Глубокое обучение : Подмножество методов машинного обучения, основанных на нейронных сетях с большим количеством слоев. Это позволяет управлять уровнем информационной абстракции, более важным, чем машинное обучение, распознавать сложные объекты (изображения, почерк, тексты песен) и генерировать содержимое (текст, раскрашивание изображений).
  • Нейронные сети : методы, используемые в машинном обучении и глубоком обучении, которые воспроизводят функционирование биологических нейронов.

Когда мы говорим об ИИ здесь, это может означать вышеупомянутые методы.

Для работы любого решения по машинному обучению или глубокому обучению нужны организованные данные. Если мы часто ссылаемся на большие данные, когда говорим об ИИ, то это потому, что эти данные - это кровь, которая питает искусственный интеллект (dixit Olivier Ezratty). Обучение машинному обучению или модели глубокого обучения требует очень больших объемов данных. Именно с этими данными и их эксплуатацией мы будем здесь заинтересованы.

Хотите узнать больше о кирпичах ИИ? Я советую вам книга «Использование искусственного интеллекта» написано Оливье Эзратти. 362 страницы техник, конкретных приложений и видений, которые я съел за несколько дней ... Это было необходимо, чтобы я понял, что будущее уже наступило!

Давайте перейдем к советам экспертов SEO.

Использование больших данных для SEO

Из-за вездесущего присутствия в нашей жизни Google собирает большие объемы данных, чтобы кормить свой ИИ. Когда мы занимаемся SEO, у нас, конечно, нет доступа к тем же объемам данных, что и у Google, но мы пока не ориентируемся вслепую. Путем перекрестной ссылки на данные инструментов, имеющихся в его распоряжении, эксперт SEO может быстро получить наборы данных из сотен тысяч строк. Как я уже говорил в моей предыдущей статье, SEO - это бизнес с большими данными.

Я попросил Грегори Флорина, Жюльена Деневилля и Орельена Беррута рассказать об их использовании данных для SEO.


Количество инструментов и SEO-API растет, как вы делаете эту массу данных действенной и какие инструменты вы используете?

Я использую R-скрипты для анализа данных и генерации оптимизаций

Грегори Флорин - SEO менеджер La Redoute
@gregoryflorin

Проблема большого сайта, такого как La Redoute, заключается в том, что вам нужно завоевывать позиции по как можно большему количеству ключевых слов, чтобы продвинуть SEO-трафик ...

Переключение на топ-3 по его лучшему ключевому слову приведет лишь к незначительному увеличению трафика. Мы должны сосредоточиться на развитии набора страниц и работать над длинным хвостом.
Именно в этом контексте данные и программирование очень полезны для меня.
В целом, мы будем собирать основные SEO данные: ключевые слова / позиция через Semrush API и Yooda), отслеживание сканирования (Botify), внутренние данные (категоризация страниц в каталоге продуктов, файл перенаправления), обратные ссылки (Majestic) и т. д.

то мы работаем с SEO с R создать сценарии, которые позволят нам анализировать эти данные и генерировать оптимизации (которые мы внедрим в CMS).

В настоящее время у нас есть около 30 более или менее сложных скриптов, которые помогают нам оптимизировать SEO . И я создаю каждую неделю.

Например:

  • Отслеживание видимости для данного продукта вселенной.
  • Определите и создайте перенаправления для настройки
  • Обновить внутреннюю сетку
  • Определите целевые страницы для создания
  • Измерьте влияние оценки продукта на SEO

В этом контексте демократизация API очень практична, поскольку она позволяет нам очень просто обогащать нашу базу данных или «отдавать на аутсорсинг» сложные сервисы для разработки.

Я имею в виду, в частности, семантический анализ. Я буду в состоянии: определить список важных страниц, массово вызвать API, который определит мне семантическую оптимизацию, чтобы внести в мои страницы.

Сегодня наша работа очень кустарная, потому что мы хотели подтвердить, что мы сможем хранить данные и манипулировать ими для продвижения нашего SEO. Отныне мы сможем индустриализировать подход благодаря облаку и датавизу.

Это открывает двери для ИИ, что позволило бы нам, в частности, предсказать страницы с высокой долей SEO и определить оптимизацию, которую необходимо реализовать для продвижения рейтинга.

Для меня главная задача сегодня - обеспечить, чтобы SEO-команды могли быть автономными в сборе и обработке данных.

В идеале знать хотя бы один язык программирования

Жюльен Деневиль - внештатный SEO в Databulle @Diije

Прежде всего спасибо Реми за приглашение. У нас появляется все больше и больше бизнес-данных и все больше и больше инструментов для их сбора. На мой взгляд, сложность двояка:
- выбрать полезные данные (и связанные инструменты и услуги)
- Иметь правильные инструменты для обработки растущего объема информации.

На мой взгляд, не стоит спешить с последним модным SEO-инструментом. Для меня важна надежность и долговечность предлагаемых данных. Я также думаю, что гораздо интереснее смотреть на источники данных с других рычагов или сделок .

Все остальное зависит от интуиции, опыта и адаптации. Некоторые пересечения данных очень актуальны, другие ничего не приносят, и иногда это трудно реализовать. Но не обязательно идти очень далеко, чтобы найти методы, которые позволят вам быстро определить проблему или проблемы. Например, простое сравнение двух переменных позволяет нам очень быстро обнаружить возможную корреляцию.

Для дальнейшего анализа я очень люблю кластеризацию g: часто довольно просто и быстро группировать наборы данных между ними. Я рекомендую, например, _Modularity Class_, изначально встроенный в Gephi и который уже делает очень хорошую работу. С точки зрения инструментов, Excel быстро показывает свои пределы, когда объем данных увеличивается или когда кто-то стремится пойти дальше в визуализациях. Такие инструменты, как Qlikview или Tableau, могут пойти дальше с более высокими объемами обработки и более продвинутыми визуализациями.

Наконец, я думаю, что хороший SEO, который хочет специализироваться на технических аспектах нашего бизнеса, должен быть автономен хотя бы с одним языком программирования. Я использую в основном питон со своей стороны, но большинство современных языков предлагают все больше и больше ориентированных на машинное обучение библиотек . Вам не нужно становиться чистым разработчиком, чтобы иметь возможность справляться ежедневно.

Ежедневно это становится действительно важным инструментом, который экономит много времени, если только манипулировать файлами или потоками данных перед их обработкой в ​​Excel.

IA & DATA в SEO теперь являются неотъемлемой частью нашего бизнеса

Орелиен Беррут - SEO консультант в virtua_agency @htitipidotcom

IA & DATA in SEO теперь являются неотъемлемой частью нашего бизнеса. Вы положили это хорошо в ваша последняя SEO конференция Факторы рейтинга определенно по-разному оцениваются Google от одной темы к другой . Основы остаются неизменными, но необходимость контекстуализации его анализа становится неизбежной. Мы больше не анализируем сайт, а целую экосистему.

Но давайте не будем скрывать лицо: это добавляет хороший уровень сложности нашему бизнесу и реальную добавленную стоимость для самых талантливых. Там нет линейного процесса. Вы должны знать, куда вы идете, куда вы хотите пойти, с какими данными, при планировании промежуточных шагов. Для этого не обязательно быть специалистом по DATA, но это значит иметь «перспективу» (= быть осведомленным). Инструменты не являются линейными, и мельчайшая песчинка в рабочем процессе может привести к неправильной интерпретации.

Я еще не освоил Dataiku (мимоходом спасибо, что заговорили об этом и внесете свой вклад в его демократизацию!). Этот инструмент находится на перекрестке между инструментами майнинга DATA, такими как Knime и RapidMiner, и другими, более ориентированными на визуализацию DATA, такими как Tableau, Qlik или Gephi. Я часто «играл» с этими инструментами, которые предлагают, безусловно, интересные возможности, но мы быстро достигли их пределов (масштабируемость, автоматизация, шлюзы с API и т. Д.).

И мы только в начале! ДАННЫЕ и SEO часто вызываются в контексте анализа сайта. С другой стороны, SEO-ориентированные инструменты семантического анализа, такие как SEOquantum, 1.fr, Visiblis, Yourtext.guru, в последнее время процветают, и это лишь некоторые из них. Также обратите внимание на инструменты автоматической обработки языка и анализа тонов, вечно совершенствующиеся.

Я убежден, что есть и другие области исследования, очень интересные, что некоторые агентства, вероятно, уже экспериментировали с активными данными: поиск. Если нам удастся проанализировать экосистему вокруг сайта, то мы сможем полностью проанализировать экосистему, чтобы выбрать сайты, которые не имеют видимости в соответствии с их средствами (на основе покупки adwords например). Кроме того, наука DATA предлагает нам на плато угол атаки, чтобы определить перспективу путем выявления ее статистических аномалий относительно «нормы». Будьте осторожны, когда я говорю «норма», понимают набор корреляций, которые показывают, что работает или не работает в конкретной отрасли.

И любопытство может вести нас в нескольких направлениях, оставаясь при этом в периметре SEO. Мы знаем классический сценарий, когда мы анализируем выдачу Google на рынке или выражение. То же самое, но сравнение Google с Bing, Qwant или Yandex, безусловно, могло бы помочь нам лучше понять чувствительность различных движков. Возможности бесконечны!

Остальная часть цикла ИИ

Второй эпизод серии доступен здесь: Цикл AI 2: SEO стратегии для борьбы с искусственным интеллектом ! Вы найдете конкретные стратегии SEO, используемые Рафаэлем Дусе, Энтони Течером, Дэвидом Карлесом, Кристианом Мелайном, Янном Соважоном и Кевином Ричардом, чтобы противостоять росту ИИ в поисковой выдаче.

Не стесняйтесь присоединиться ко мне в Twitter, чтобы быть в курсе будущих статей:

ГОРЯЧАЯ ЛИНИЯ

(062) 348 60 00
(095) 210 57 42

Дед Мороз в офис Донецк

Дед Мороз на детском утреннике Донецк

Дед Мороз на дом Донецк

Новости

Телеканал Юнион в гостях у Морозко

Последние записи