О том, как использовать Json в C#

Как попросить Json у сайта и что с ним делать, читайте в статье

О том, как использовать Json в C#

Как попросить Json у сайта и что с ним делать, читайте в статье

Как собрать сookies с сайта объявлений, используя Chrome и C#?

Любое посещение пользователем сайта — сохраняется в небольших файлах.
Основная задача таких файлов – сделать серфинг в Интернете более комфортным, а загрузку страниц – более быстрой. Как (в рамках аудиторской проверки) мы собирали информацию о пользователях с сайта, используя cookies файлы?

Использование распараллеливания при обработке данных в C#

Встречаются ситуации, когда приходится обрабатывать такие большие данные, что затраченное время на их обработку непомерно велико. Помочь в решении этой проблемы может распараллеливание обработки.

Практическое применение анализа изображения в аудите

В ходе аудиторских проверок мы сталкиваемся с обработкой не только буквенно-цифровой информации, а также изображений и фотографий.
Рассмотрим процесс, в котором, согласно требованиям, для формирования каждой новой заявки клиента – необходимо новое фото. Но сотрудники, ответственные за формирование таких заявок, в обход нормативных документов, используют исторические данные из ранее сформированных обращений клиента. Как методами автоматизации можно проверить соблюдение требований, затратив при этом минимум усилий?

Парсим какой-нибудь XML

Каждый, кто написал в жизни хоть строчку кода, слышал такое выражение – не нужно изобретать велосипед, то есть, зачем писать то, что уже написано. И мы полностью согласны с этой мыслью — зачем изобретать велосипед, когда им уже можно с удовольствием пользоваться. Тема парсинга XML уже разобрана не раз, поэтому прокатимся на велосипеде парсинга XML по документам с неизвестной структурой.

Парсинг на C# с HtmlAgilityPack

Рассмотрим пример парсинга на C# с использованием HtmlAgilityPack

Пишем простой граббер статей на Python

Новостные сайты являются хорошим источником данных для обработки моделями машинного обучения. При этом, большинство новостных web-ресурсов перегружено различной «лишней» информацией, не относящейся к сути статей, будь то навязчивая реклама, всплывающие окна со служебной информацией и т.д. Очистка статей при выгрузке с web-ресурсов от «шума» помогла бы снизить количество ошибок обработки данных. В этой статье мы рассмотрим создание инструмента, с помощью которого можно получать читабельный текст из статей с минимальной «лишней» информацией.

Загрузить ещё