Edgard Gomes
Заказчик Edgard Gomes SapunovVadim | FL.RU

Edgard Gomes

На сайте 14 лет (заходил 7 месяцев 9 дней назад)
3
354.66
Рейтинг
354.66
Все (11)       Заказы (11)        Вакансии (0)       Конкурсы (0)
Разместить заказ
02 Сентября 2022
Бюджет: 4600 руб
Нужно написать парсер Wildberries через Selenium.
парсер должен должен быть исполнен в одном из вариантов:
1) Docker контейнер под Yandex Serverless Containers
2) Selenium-hub
3) Железный на сервере (может и в контейнере)
Непосредственно парсить ничего не нужна – мне нужны только полностью отрендеренные html.
Одно условие – он должен быть многопоточным.

Прошло времени с момента публикации: 1 год 8 месяцев 16 дней 12 часов 20 минут
Раздел: Программирование / Парсинг данных

Рейтинг: 521 Исполнитель определен:
31 Августа 2022
По договоренности
Необходимо написать парсер, которому можно скормить список ключевых слов для отслеживания и он в многопоточном режиме получит информацию (первая страница поиска, обязательно с рекламными позициями).
Что должен собирать:
1) Позиция
2) Тип позиции (сео или реклама)
3) Название товара
4) Ссылка на товар
5) Ссылка на изображение товара
Сам парсер запускаться будет раз в час. Количество ключевых слов – до 500.
Соответственно, парсер должен уметь обходить баны / защиты (работать с прокси если необходимо). Ожидается полностью рабочий инструмент, который будет работать до изменения механизмов защиты / верстки сайта.

Язык – желательно Python (но nodejs тоже подойдет)

Прошло времени с момента публикации: 1 год 8 месяцев 18 дней 20 часов 4 минуты
Раздел: Программирование / Парсинг данных

Рейтинг: 959.1 Исполнитель определен:
27 Марта 2019
Бюджет: 10 000 руб
Задача: сделать парсер сайтов с использованием Lambda + Selenium + Chromedriver, обязательно с использованием прокси.
API Gateway: используется для запуска Lambda (в API Gateway стучимся мы, передавая данные прокси, который надо использовать и URL для парсинга)
Сам парсер просто возвращает полученнный HTML.

Проблемы:
1) Прокси бывают запароленные или залоченные на IP (т.к. у Lambda может быть всегда разный IP, то вариант с локом по IP отпадает)
2) Использовать прокси можно только с НЕ headless chromedriver (т.к. там появляется окошко для авторизации, в котоое надо ввести логин пароль, в НЕ headless режиме это решается сборкой extension, в котором прописывается прокси (гугл – inject-proxy-settings-selenium-chrome), но в Headless режиме chrome нельзя использовать extensions.
3) Соответственно, надо использовать НЕ headless chrome (чтобы можно было подгрузить плагин). Судя по всему есть вариант делать сборку с Xvfb (в гугл – aws-lambda-xvfb) – эмуляцией экрана, которая позволит запустить chromedriver в полноценнном режиме.

Вопрос в том, чтобы все собрать воедино и сделать рабочую Lambda.

Бюджет: 10 000 т.р. (БД, можно и без, но тогда только после того, как будет виден результат (код сикдывать не надо, но показать что все готово и работает – да))
Приемка: готовый к запуску и откомментированный код (гугл – aws-lambda-xvfb, в таком же исполнении – docker для локального тестирования, готовая для заливки сборка для AWS Lambda). Язык Python. Можно показать по видео – создали API Gateway, создали Lambda, залили все файлы. Пустили запрос с прокси и url к API Gateway – вжух и функция выполнилась, вернула результат (главное чтобы именно с запароленным прокси, могу предоставить), можно прям во встроенные логи – главное видеть, что все работает с указанными улсовиями (chromedriver, прокси с паролем).

Рассматривается только chromedriver (ff, phantomjs – прошу не предлагать)

Навыки: amazon aws, lambda, python, selenium

Прошло времени с момента публикации: 5 лет 1 месяц 22 дня 19 часов 2 минуты
Раздел: Программирование

22 Января 2018
Бюджет: 6000 руб
Необходимо реализовать скрипт для парсинга подписчиков в инстаграме.
На вход дается MySQL таблица с блоггерами (предоставлю).
Скрипт должен асинхронно парсить подписчиков этих блоггеров и складывать данные в БД.

Endpoint:
www.instagram.com/graphql...
где
id id блоггера
first, limit одинаковое значение, сколько подписчиков получить за раз (надо поиграться, по 3000 за раз вроде бы нормально вытгивает
after токен для доступа к следующей "странице"

Т.е. асинхронно парсить один аккаунт (одного блоггера) невозможно (из-за токена).

Необходимо подставлять headers (логинимся в бразуере и из network таба копируем хедеры), нормального АПИ, к сожалению, уже нет.

Соответстенно, необходимо написать скрипт, который будет максимально быстро парсить данные распараллеливая процесс по блоггерам.

Условия:
1) Только python 3
2) Обязательное логгирование (ход парсинга, ошибки)
3) Профессиональный код (простой и сам могу написать, смысл в том, чтобы получить "настощий" код, как это должно быть у профессионалов, чтобы в том числе и поучиться).
3) Желательно через asyncio (либо другой, современный вариант). Понятное дело, что можно и grequests / mulprocessing / threading, но, опть же, смысл в том, чтобы получить современное решение production-уровня
4) Комментарии
5) Простые for не предлагать, такое и сам могу сделать
6) Код обязательно буду смотреть, т.е. тяп-ляп не пройдет, своих знаний для оценки качества хватит

Оплата:
БД или по факту (каким-то безопасным для себя образом показываете работу и я оплачиваю), без вариантов (развелось тут разводчиков, к сожалению, в последнее время.
Бюджет, думается, вполне оправдает день работы, однако всегда можно подвинуться, главное чтобы качество было высоким.

Таблицу со списком блоггеров для парсинга предоставлю (39).

Повторюсь:
Смысл в том, чтобы получить профессиональное решение, так как если бы скрипт делали для себя, работающее максимально быстро, логгирующее и обрабатывающее ошибки.

Если нужно купить аккаунты или прокси все сделаю и скину )

Если что-то смущает с радостью пообщаюсь в скайпе и все поясню.

Прошло времени с момента публикации: 6 лет 3 месяца 26 дней 19 часов 47 минут
Раздел: Программирование / Прикладное программирование

29 Апреля 2017
По договоренности
Добрый день! Нужно сделать скрипт для парсинга выдачи Google и Яндекс (только первая страница).
Основные функции:

1) Python + Selenium (+Grid) + MySQL (поднять на Google Cloud: Compute Engine + Cloud SQL)
2) Поддержка прокси (IPv4 и IPv6)
3) Работа через Selenium Grid
4) Обработка большого количества запросов «за раз» – до 100.
5) Selenium: работа через PhantomJS и FireFox
6) Парсинг результатов выдачи (реклама + поиск) и запись результатов в СУБД
7) Обработка ошибок и логгирование
8) Краткие инструкции для воспроизведения «установки»

В первую очередь ищу человеку уже имевшего опыт работы с Selenium и Google Cloud (это позволит сэкономить время на чтении документации и т.п.)

Денюжка обсуждается, так что предлагайте.

Платформа не обсуждается (т.е. только python, google cloud, selenium).

Никаких интерфейсов, просто скрипт выполняющий свою работу (выдал прокси, сделал запрос, спарсил, положил в БД), собственно единственная сложность: настроить Selenium Grid и правильно обрабатывать ошибки.

Более подробное описание внутри.

Прошло времени с момента публикации: 7 лет 19 дней 17 часов 39 минут
Раздел: Аутсорсинг и консалтинг / QA (тестирование)

15 Января 2017
Бюджет: 30 000 руб
Добрый день!

Требуется отверстать сайт для wordpress (макеты по ссылке ниже): современная адаптивная верстка, слайдеры, формы и т.д.
Потребуется написать формы (заявка на консультацию): с нуля или доработать существующий плагин – без разницы.

Требования: работа с wordpress, html5, php, js. Потребуется заполнить сайт демо-содержимым (примеры статей, блог-постов, главной страницы и т.д.) При выборе буду смотреть на портфолио (качество верстки в первую очередь)

Ссылка на макеты:
yadi.sk/d/OzATQBvo399wKF

Бюджет можно обговорить отдельно.

Прошло времени с момента публикации: 7 лет 4 месяца 3 дня 13 часов 11 минут
Раздел: Сайты / Веб-программирование

Рейтинг: 8642.5 Исполнитель определен:
27 Сентября 2016
Бюджет: 25 000 руб
REST API, Python MySQ Postgres Mongo, Javascript.

Дано: есть система сбора статистики по интернет-рекламе (веб-интерфейс).
При просмотре статистики УРЛы принимают вид:
/#accounts/1011/statistics?date_grouping=no&grouping=placement&fi ltering=no&exclude_discount=true&start_date=2016-09-01&end_date=2 016-09-26&with_vat=false&sorting=-date

Т.е. в УРЛе прописываются применяемые группировки, фильтры и диапазон дат.

Необходимо разработать плагин заметок, который будет работать с такими УРЛами: создание, просмотр и редактирование заметок. Заметки складываются в БД.

Мокап – инструкция доступна по ссылке: app.moqups.com/e.gomez.s/...
В инструкции описано, как ведет себя плагин, каким образом добавляются редактируются и отображаются заметки.
Думаю для начала этого достаточно, а более детально можно обсудить по Skype.

Оплата: либо БД, либо поэтапно (вижу работу – плачу и так пока не завершим).
На карту, либо ЯД.

Бюджет обсуждается, в разумных пределах.

Upd: Добавил скриншот системы. Так и все остальное будет понятнее.

Прошло времени с момента публикации: 7 лет 7 месяцев 21 день 18 часов 8 минут
Раздел: Программирование / Веб-программирование

27 Июля 2016
Бюджет: 2000 руб
Есть сводная таблица (в ней используются фильтры и slicer). Лист Pivot
Slicer скопирован на другой лист таблицы (именно там будет нажимать кнопочки) – лист Result

По нажатии на кнопку слайсера (любого) на данный лист (Result) должны будут скопироваться данные сводной таблицы с листа Pivot, с сохранением форматирования. (нажали на другой слайсер – старая табличка удалилась и "подгрузилась" новая)

Формулу Index в subtotal на листе с результатами необходимо будет заменить (указано в файле в аттаче). Не sub total значения – удалить.

Зачем все это? Судя по всему напрямую через VBA удалить значения из ячеек невозможно (сводные таблицы – read only), поэтому надо крутиться с копированием.

В аттаче excel файл с примером. (на листе Result – то, что нужно получить в итоге)

Прошло времени с момента публикации: 7 лет 9 месяцев 22 дня 17 часов 26 минут
Раздел: Программирование / Прикладное программирование

Рейтинг: 550.5 Исполнитель определен:
07 Июля 2016
Бюджет: 3000 руб
Скрипт создаем имена рекламных кампаний + расшифровывает их.
Скрипт сам в аттаче, поэтому проще увидеть как он работает просто открыв index.html
Вкладка Social – поля формы (options) не зависимы друг от друга, поэтому просто заполняем их сразу при загрузке страницы из БД.
Вкладка Search – поля (options) зависимы, в скрипте все достаточно просто и видно, что к чему.

Необходимо переделать на php+ajax, чтобы селекты заполнялись из БД, расшифровка так же через БД велась.
В общем, чтобы визуально было все то же самое, но сами значения брались из БД.
В файле значения в виде СОКРАЩЕНИЕ_РАСШИФРОВКА. Соответственно в БД, надо это по колонкам разбить.

+ простая админ-панель (можно без авторизации), через которую можно добавлять расшифровки и значения в таблицы БД.

Update: в админ-панели возможность просмотреть таблицы и удалять строки (на тот случай если добавили что-то неправильно).

Прошло времени с момента публикации: 7 лет 10 месяцев 11 дней 14 часов 19 минут
Раздел: Программирование / Веб-программирование

26 Августа 2015
Бюджет: 6000 руб
Необходимо разработать плагин (пример: Web Page Sticky Notes – chrome.google.com/webstor...

Схематично то, что нужно:

moqups.com/edgardgomes/3T...

Принцип действия тот же самый:
1) Возможность создать "заметки" для страницы (с учетом query string и hash). Должно работать со страницами, на которых используется AJAX подгрузка

2) Возможность редактировать query string и hash (в примере нет), чтобы можно было использовать маски (.*). Пример: адрес, где в query string есть начало и конец отчетного периода. Соответственно нужна возможность указать "показывать все заметки за месяц."
Было: #accounts/1011/projects/2969/statistics?date_grouping=no&grouping =order&filtering=order&exclude_discount=true&start_date=2015-07-0 1&end_date=2015-07-31&entities=16455&with_vat=false&sorting=-date (показывается только на одной странице)
Стало: #accounts/1011/projects/2969/statistics?date_grouping=no&grouping =order&filtering=order&exclude_discount=true&start_date=2015-07-( .+)&end_date=2015-07-(.+)&entities=16455&with_vat=false&sorting=- date (показывается везде в этом месяце, какую бы дату я ни выбрал)

3) При создании заметки к ней приписывается дата создания (которую можно поменять на любую другую). По сути это ключ для отображения нужных заметок (помимо адреса самой страницы)

4) Заметки отображаются в виде "Дата (авто или заданная вручную): Текст". Соответственно если дата заметки попадает в период в query string или hash и страница совпадает (см п.2), то отобразить заметки.

5) В отличие от примера заметки сохраняются в базе. Вытягиваются при совпадении условий оттуда и отображаются в одном окошке (sticky note) одна за другой.

Можете взять за основу пример и допилить его. Проект нужен для внутреннего пользования и поэтому дизайн не особо важен.

В двух словах (если описание не оч. понятно):
Я просматриваю в системе отчеты (УРЛы имеют вид из п.2), вижу что-то нехорошее и добавляю заметку (чтобы потом всегда знать что же случилось), заметка добавляется к определенной дате. Если просматриваю статистику за определенный период, то мне должен отобразиться список всех заметок за этот период в хронологическом порядке (поэтому скроллинг надо предусмотреть в окошке).

Для базы никаких регистраций и т.д. не надо. Просто нужно чтобы все заметки сохранялись там и вытягивались оттуда и чтобы я, установив плагин на другом компьютере, смог бы просматривать, редактировать и добавлять все заметки оттуда.

Навыки: javascript, ajax, php

Прошло времени с момента публикации: 8 лет 8 месяцев 23 дня 19 часов 8 минут
Раздел: Программирование / Веб-программирование

17 Июля 2014
Бюджет: 6000 руб
Требуется с помощью Excel (желательно Power Query, но обsчный VBA тоже пойдет) получать данные по затратам Яндекс.Директ по API.
Т.е. будет небольшой интерфейс:
1) Выбираем клиента из Директ
2) Выбираем даты от и до
3) Жмем ОК и получаем через API табличку с колонками: кампания, ID кампании, ключевое слово, ID ключевого слова, затраты

Для Google Analytics API функционал нужен такой же как в дополнении Excellent Analytics для Excel (исходный код можно найти в интернете, документации по GA API также море).

Главное: все должно работать через Excel и иметь интерфейс "для людей".

Безопасная сделка.
За сколько будете готовы сделать? Если все проходит удачно, то будет продолжение, например: скоро из беты выйдет новое API Яндекс.Метрика, да и сама задача – только первая в списке. Сначала данные надо получить. (а потом пойдет power pivot + анализ данных)

Прошло времени с момента публикации: 9 лет 10 месяцев 2 дня 22 часа 37 минут
Раздел: Программирование

Сведения об ООО «Ваан» внесены в реестр аккредитованных организаций, осуществляющих деятельность в области информационных технологий. ООО «Ваан» осуществляет деятельность, связанную с использованием информационных технологий, по разработке компьютерного программного обеспечения, предоставлению доступа к программе для ЭВМ и является правообладателем программы для ЭВМ «Платформа FL.ru (версия 2.0)».