Публикации по теме 'kafka'


Как настроить производительность Kafka Producer?
Kafka очень мощен, когда дело доходит до потоковой передачи данных. Вы можете публиковать сообщения и иметь несколько потребителей для вашей темы Kafka. но иногда пропускная способность вашего издателя просто недостаточно высока, а процессоры вашего потребителя не выполняют много работы из-за медленного издателя. В этой статье давайте поговорим о том, как вы можете улучшить производительность Kafka для своих производителей. Нам нужно настроить некоторые свойства на стороне..

Усильте обслуживание модели машинного обучения: пошаговое руководство по интеграции Kafka и Python
Инфраструктура и настройка машинного обучения Усильте обслуживание модели машинного обучения: пошаговое руководство по интеграции Kafka и Python Подробное руководство по обслуживанию модели машинного обучения с использованием Kafka и Python В современном мире, где данных много, модели машинного обучения (ML) становятся все более сложными и дорогостоящими в вычислительном отношении. Чтобы удовлетворить требования этих моделей, важно иметь эффективную и масштабируемую архитектуру,..

Напишите свою инфраструктуру Kubernetes как код Go — используя определения пользовательских ресурсов с Cdk8s
Использование CRD в качестве API cdk8s (Cloud Development Kit for Kubernetes) — это фреймворк с открытым исходным кодом (часть CNCF), с помощью которого вы можете определять свои приложения Kubernetes с помощью обычных языков программирования (вместо yaml ). В некоторых из предыдущих блогов на эту тему рассказывалось о том, как начать работу и использовать библиотеку cdk8s-plus для дальнейшего улучшения основных функций библиотеки cdk8s . Мы продолжим и продвинем cdk8s еще..

Kafka: использование сообщений из нескольких очередей
Объяснение через QnA Недавно в своей работе я столкнулся со сценарием, когда приложению нужно было потреблять сообщения из нескольких очередей. Мне было интересно, как Kafka удается надежно предоставлять такую ​​возможность потребителям. У меня было много вопросов, на которые мне нужно было получить ответы, прежде чем приступить к реализации такого дизайна, и я хотел понять, как работает Kafka в таком сценарии. Давайте рассмотрим некоторые из этих вопросов и ответы, которые я нашел..

Как Apache Kafka работает внутри?
Понимание внутренней работы архитектуры Apache Kafka: хранение данных, секционирование, транзакции и целостность данных Здравствуйте, ребята! В сфере распределенных систем Apache Kafka стала надежной и масштабируемой платформой для обмена сообщениями. Благодаря способности обрабатывать большие объемы данных в режиме реального времени Kafka стала популярным выбором для построения конвейеров данных, приложений потоковой обработки и архитектур, управляемых событиями. Kafka также очень..

Master Data Engineering с этими 6 сессиями на DataHack Summit 2019
Дата-инженеры — редкая порода. Без них проект машинного обучения рухнет, не успев начаться. Их знания и понимание программных и аппаратных средств в сочетании с врожденным чувством построения гибких конвейеров данных не имеют себе равных. Так почему же концепции инженерии данных не преподают начинающим профессионалам в области науки о данных? После всего: «Хороший специалист по обработке данных зависит от данных, к которым у него есть доступ». А инженеры данных — это те, кто..