Превью для статьи

Parsing. Преимущества и недостатки известных инструментов

Сбор информации, особенно в аудиторской деятельности, занимает большое количество времени и сил, поэтому «ленивые» программисты создали инструмент, который облегчает им жизнь. Мы уже много рассказывали про Parsing. В этой статье мы рассмотрим преимущества и недостатки разных вариантов парсинга.

Превью для статьи

Web Parsing. Основы на Python

Рассмотрим еще один практический кейс парсинга сайтов с помощью библиотеки BeautifulSoup: что делать, если на сайте нет готовой выгрузки с данными и нет API для удобной работы, а страниц для ручного копирования очень много? Узнайте альтернативный способ извлечения информации с просторов Интернета.

Превью для статьи

Стандартизация адресов с Elasticsearch

Передо мной стояла задача сравнения большого количества адресов из разных баз данных с целью поиска совпадений. И единственным рациональным, на мой взгляд, решением было привести адреса к единому виду. Для нормализации адресов использован единый российский государственный адресный реестр — ФИАС, базы которого находятся в открытом доступе.

Превью для статьи

Что такое Teradata? Её отличия от аналогов.

Teradata – разрабатывалась как система управления базами данных для распределенного хранения, и обработки данных. Сравним её, с самыми распространёнными аналогами на рынке.

Превью для статьи

Высокие технологии для личной жизни

Добрый день, друзья. Где искать друзей по интересам или партнера для жизни? Расскажем, как с помощью программирования найти себе пару или просто будущих друзей в vk

Превью для статьи

Как договориться с экспертами и памятью

31 августа 2019 в офисе mail.ru group прошла конференция Moscow Data Science Major. О том, какие инструменты можно использовать, каких промахов возможно избежать и как выводят модели в пром другие IT-специалисты, читайте в нашем обзоре «Как договориться с экспертами и памятью»

Превью для статьи

Парсер новостных RSS-лент с возможностью поиска по определенным словам

Ручной анализ новостных источников на предмет негативной или любой другой интересующей информации – дело неблагодарное и трудоемкое. Совсем другое дело, когда большое количество новостных RSS-лент можно распарсить и проанализировать с помощью c помощью библиотеки Python feedparser. Давайте рассмотрим данный функционал поподробнее.