Публикации по теме 'kafka'
Как настроить производительность Kafka Producer?
Kafka очень мощен, когда дело доходит до потоковой передачи данных. Вы можете публиковать сообщения и иметь несколько потребителей для вашей темы Kafka. но иногда пропускная способность вашего издателя просто недостаточно высока, а процессоры вашего потребителя не выполняют много работы из-за медленного издателя.
В этой статье давайте поговорим о том, как вы можете улучшить производительность Kafka для своих производителей.
Нам нужно настроить некоторые свойства на стороне..
Усильте обслуживание модели машинного обучения: пошаговое руководство по интеграции Kafka и Python
Инфраструктура и настройка машинного обучения
Усильте обслуживание модели машинного обучения: пошаговое руководство по интеграции Kafka и Python
Подробное руководство по обслуживанию модели машинного обучения с использованием Kafka и Python
В современном мире, где данных много, модели машинного обучения (ML) становятся все более сложными и дорогостоящими в вычислительном отношении. Чтобы удовлетворить требования этих моделей, важно иметь эффективную и масштабируемую архитектуру,..
Напишите свою инфраструктуру Kubernetes как код Go — используя определения пользовательских ресурсов с Cdk8s
Использование CRD в качестве API
cdk8s (Cloud Development Kit for Kubernetes) — это фреймворк с открытым исходным кодом (часть CNCF), с помощью которого вы можете определять свои приложения Kubernetes с помощью обычных языков программирования (вместо yaml ). В некоторых из предыдущих блогов на эту тему рассказывалось о том, как начать работу и использовать библиотеку cdk8s-plus для дальнейшего улучшения основных функций библиотеки cdk8s . Мы продолжим и продвинем cdk8s еще..
Kafka: использование сообщений из нескольких очередей
Объяснение через QnA
Недавно в своей работе я столкнулся со сценарием, когда приложению нужно было потреблять сообщения из нескольких очередей. Мне было интересно, как Kafka удается надежно предоставлять такую возможность потребителям.
У меня было много вопросов, на которые мне нужно было получить ответы, прежде чем приступить к реализации такого дизайна, и я хотел понять, как работает Kafka в таком сценарии.
Давайте рассмотрим некоторые из этих вопросов и ответы, которые я нашел..
Как Apache Kafka работает внутри?
Понимание внутренней работы архитектуры Apache Kafka: хранение данных, секционирование, транзакции и целостность данных
Здравствуйте, ребята! В сфере распределенных систем Apache Kafka стала надежной и масштабируемой платформой для обмена сообщениями. Благодаря способности обрабатывать большие объемы данных в режиме реального времени Kafka стала популярным выбором для построения конвейеров данных, приложений потоковой обработки и архитектур, управляемых событиями.
Kafka также очень..
Master Data Engineering с этими 6 сессиями на DataHack Summit 2019
Дата-инженеры — редкая порода. Без них проект машинного обучения рухнет, не успев начаться. Их знания и понимание программных и аппаратных средств в сочетании с врожденным чувством построения гибких конвейеров данных не имеют себе равных.
Так почему же концепции инженерии данных не преподают начинающим профессионалам в области науки о данных? После всего:
«Хороший специалист по обработке данных зависит от данных, к которым у него есть доступ».
А инженеры данных — это те, кто..