создать конвейер с использованием фабрики данных с копированием из хранилища лазурных BLOB-объектов в хранилище озера данных

Я пытаюсь создать конвейер с использованием фабрики данных с копированием из хранилища Azure blob в хранилище озера данных.

Но при запуске конвейера он показывает сбой состояния и ошибку ниже: -

При копировании произошла ошибка пользователя на стороне источника: ErrorCode = UserErrorSourceBlobNotExist, 'Type = Microsoft.DataTransfer.Common.Shared.HybridDeliveryException, Message = Требуемый BLOB-объект отсутствует. Имя контейнера: https: // *********, ContainerExist: True, BlobPrefix:, BlobCount: 0., Source = Microsoft.DataTransfer.ClientLibrary, '.


person sanjeev pandey    schedule 20.07.2017    source источник


Ответы (1)


Я следую за официальным лазурным учебные пособия по использованию фабрики данных с копированием из хранилища BLOB-объектов Azure в хранилище Azure Lake. У меня корректно работает. Мы могли бы создать конвейер, используя портал Azure, Visual Studio или powershell. Мы могли бы следовать пошаговые инструкции, чтобы сделать это. учебники также предоставили следующий код.

  • Связанная служба типа AzureStorage.
{
  "name": "StorageLinkedService",
  "properties": {
    "type": "AzureStorage",
    "typeProperties": {
      "connectionString": "DefaultEndpointsProtocol=https;AccountName=<accountname>;AccountKey=<accountkey>"
    }
  }
}
  • Связанная служба типа AzureDataLakeStore.
{
    "name": "AzureDataLakeStoreLinkedService",
    "properties": {
        "type": "AzureDataLakeStore",
        "typeProperties": {
            "dataLakeStoreUri": "https://<accountname>.azuredatalakestore.net/webhdfs/v1",
            "servicePrincipalId": "<service principal id>",
            "servicePrincipalKey": "<service principal key>",
            "tenant": "<tenant info, e.g. microsoft.onmicrosoft.com>",
            "subscriptionId": "<subscription of ADLS>",
            "resourceGroupName": "<resource group of ADLS>"
        }
    }
}
  • Входной набор данных типа AzureBlob.
{
  "name": "AzureBlobInput",
  "properties": {
    "type": "AzureBlob",
    "linkedServiceName": "StorageLinkedService",
    "typeProperties": {
      "folderPath": "mycontainer/myfolder/yearno={Year}/monthno={Month}/dayno={Day}",
      "partitionedBy": [
        {
          "name": "Year",
          "value": {
            "type": "DateTime",
            "date": "SliceStart",
            "format": "yyyy"
          }
        },
        {
          "name": "Month",
          "value": {
            "type": "DateTime",
            "date": "SliceStart",
            "format": "MM"
          }
        },
        {
          "name": "Day",
          "value": {
            "type": "DateTime",
            "date": "SliceStart",
            "format": "dd"
          }
        },
        {
          "name": "Hour",
          "value": {
            "type": "DateTime",
            "date": "SliceStart",
            "format": "HH"
          }
        }
      ]
    },
    "external": true,
    "availability": {
      "frequency": "Hour",
      "interval": 1
    },
    "policy": {
      "externalData": {
        "retryInterval": "00:01:00",
        "retryTimeout": "00:10:00",
        "maximumRetry": 3
      }
    }
  }
}
  • Выходной набор данных типа AzureDataLakeStore.
{
    "name": "AzureDataLakeStoreOutput",
      "properties": {
        "type": "AzureDataLakeStore",
        "linkedServiceName": "AzureDataLakeStoreLinkedService",
        "typeProperties": {
            "folderPath": "datalake/output/"
        },
        "availability": {
              "frequency": "Hour",
              "interval": 1
        }
      }
}
  • Конвейер с действием копирования, использующий BlobSource и AzureDataLakeStoreSink.
{  
    "name":"SamplePipeline",
    "properties":
    {  
        "start":"2014-06-01T18:00:00",
        "end":"2014-06-01T19:00:00",
        "description":"pipeline with copy activity",
        "activities":
        [  
              {
                "name": "AzureBlobtoDataLake",
                "description": "Copy Activity",
                "type": "Copy",
                "inputs": [
                  {
                    "name": "AzureBlobInput"
                  }
                ],
                "outputs": [
                  {
                    "name": "AzureDataLakeStoreOutput"
                  }
                ],
                "typeProperties": {
                    "source": {
                        "type": "BlobSource"
                      },
                      "sink": {
                        "type": "AzureDataLakeStoreSink"
                      }
                },
                   "scheduler": {
                      "frequency": "Hour",
                      "interval": 1
                },
                "policy": {
                      "concurrency": 1,
                      "executionPriorityOrder": "OldestFirst",
                      "retry": 0,
                      "timeout": "01:00:00"
                }
              }
        ]
    }
}
person Tom Sun - MSFT    schedule 21.07.2017