Вопросы по теме 'azure-databricks'

Могу ли я запускать запросы gremlin к cosmos-db (graph) из записной книжки лазурного набора данных?
Есть ли прямая интеграция Gremlin в блокнот лазурных данных? У меня есть график в cosmosDb, и я хочу выполнить несколько запросов гремлина. Например, g.V().hasLabel('x').out('y').out('z') Я запускаю запросы с лазурного портала, но для...
387 просмотров

На карте фолиума не отображаются блоки данных Python
Я работаю над Databricks и имею карту фолиума: import geopandas as gpd import matplotlib as plt import os import folium from IPython.display import display map_osm = folium.Map(location=[45.5236, -122.6750]) map_osm Получаю следующее:...
1133 просмотров
schedule 27.11.2022

Как импортировать класс из библиотеки в блоки данных?
Я использую блоки данных в лазурном цвете для выполнения некоторой работы с машинным обучением, и я пытаюсь импортировать класс из определенной библиотеки, но, похоже, он работает иначе, чем я привык. (Обычно я пишу код Python в блокноте jupyter)...
1306 просмотров

Эффективный поиск из pyspark в космосдб
В искровом задании мне нужно получить данные из CosmosDB по ~ 20000 документам, чьи идентификаторы и ключ раздела мне известны. Мой текущий код, который ужасно медленный, заключается в подготовке запроса SELECT * FROM c WHERE c.pkey = %{pkey}i AND...
253 просмотров

Сохранение Pyspark не работает при вызове изнутри foreach
Я создаю конвейер, который получает сообщения от Azure EventHub и сохраняет их в дельта-таблицах блоков данных. Все мои тесты со статическими данными прошли хорошо, см. Код ниже: body = 'A|B|C|D\n"False"|"253435564"|"14"|"2019-06-25...
206 просмотров
schedule 28.04.2024

Azure DataBricks: как выполнить внутреннее соединение двух фреймов данных, имеющих отношение "один ко многим", и выбрать определенные столбцы из обоих фреймов данных.?
Я прочитал данные из файлов json следующим образом: import os,shutil,glob,time from pyspark.sql.functions import trim #Get Data DF1 df1 = spark.read.format("json").load("/mnt/coi/df1.json") #Get Data DF2 df2 =...
1750 просмотров

Как правильно получить доступ к dbutils в Scala при использовании Databricks Connect
Я использую Databricks Connect для локального запуска кода в моем кластере Azure Databricks из IntelliJ IDEA (Scala). Все нормально работает. Я могу подключаться, отлаживать, проверять локально в среде IDE. Я создал задание Databricks для...
4033 просмотров

Azure Databricks - объяснение синтаксиса монтажа в блоках данных.
Я новичок в azure и databricks , я узнал, как монтировать blob и использовать, но у меня есть несколько сомнений, и я еще не нашел ответов на какую-либо документацию. Пожалуйста, помогите мне объяснить это: dbutils.fs.mount( source =...
121 просмотров
schedule 24.10.2022

Как вывести список и удалить пустые папки в Azure Data Lake Store Gen1
Вопрос 1: Есть ли способ перечислить и удалить пустые папки в Azure Data Lake Store Gen 1? Сценарий: Нам необходимо периодически запускать задание по рекурсивному удалению всех пустых папок в корневой папке в нашем хранилище озера данных....
1758 просмотров

Редактирование учетной записи хранения Azure в Azure Databricks
У меня есть блоки данных, указывающие на учетную запись хранения в Azure, но регион указан неверно. Теперь я хочу изменить его и указать на другую учетную запись хранения. Я использовал вариант монтирования с кодом, как показано ниже...
81 просмотров
schedule 03.12.2022

API Azure Databricks: импорт всего каталога с записными книжками
Мне нужно импортировать много записных книжек (как Python, так и Scala) в Databricks с помощью Databricks REST API 2.0. Мой исходный путь (локальный компьютер) - ./db_code , а место назначения (рабочая область Databricks) -...
496 просмотров
schedule 30.01.2024

Пытаюсь установить H2O на Databricks. Как я могу установить сторонний пакет в Databricks?
Я сейчас играю с Databricks и смотрю онлайн-демо. Для демонстрации требуется установка H2O. В Databricks я пробовал следующее: click clusters (then click on the name of the cluster) click libraries click install new finally, click...
202 просмотров
schedule 15.11.2023

Блоки данных или функции с ADF?
Я использую ADF для вывода некоторых отчетов в pdf (по крайней мере, это цель). Я использую ADF для вывода csv в большой двоичный объект хранилища, и я хотел бы получить его, выполнить некоторое форматирование и статистику (с помощью scipy и...
466 просмотров

Чтение файлов и изменение имени файла из контейнеров хранилища Azure в Azure Databricks
Я загружаю большой файл XML и генерирую отдельный JSON в соответствии с элементом XML, я использую SPARK-XML в лазурных блоках данных. Код для создания файла json как commercialInfo .write .mode(SaveMode.Overwrite)...
335 просмотров

Интеграция конвейера Azure DevOps с Databricks + как распечатать результат записной книжки Databricks на экране результатов конвейера
Я пытаюсь интегрировать Azure Databricks в конвейер DevOps и использовал следующий URL: https://menziess.github.io/howto/run/databricks-notebooks-from-devops/ В Azure Databricks создал задание поверх записной книжки Использовал отдельную...
61 просмотров

лазурные DevOps для ADF и блоков данных
Я пытаюсь создать конвейер azure ci / cd для моей фабрики данных azure, в которой я использовал записную книжку databricks. Конвейер был успешно создан с помощью шаблона ARM для ADF, но я не вижу никаких параметров переопределения для URL-адреса...
63 просмотров