Почему моя реализация GraphDef превышает ограничение в 2 ГБ в TensorFlow?

Я использую tf.estimator API, и у меня есть следующая функция model_fn:

def model_fn(features, labels, mode, params):
    labels = tf.reshape(labels, (-1, 1))

    model = word2vec.create_model(features, params)

    if mode == tf.estimator.ModeKeys.PREDICT:
        return tf.estimator.EstimatorSpec(mode=mode, predictions=model)

    loss = sampled_softmax_loss.create_loss(model['softmax_w'],
                                            model['softmax_b'],
                                            model['relu_layer_1'],
                                            labels,
                                            params['softmax_sample'],
                                            params['vocabulary_size'])
    cost = tf.reduce_mean(loss)
    if mode == tf.estimator.ModeKeys.EVAL:
        return tf.estimator.EstimatorSpec(mode=mode, loss=cost)

    optimizer = adam_optimizer.create_optimizer(params['learning_rate'])
    train_operation = optimizer.minimize(cost)
    if mode == tf.estimator.ModeKeys.TRAIN:
        return tf.estimator.EstimatorSpec(mode=mode, loss=cost, train_op=train_operation)

    raise RuntimeError('Not a valid Mode value')

Функция word2vec.create_model приведена ниже. Функция возвращает словарь Python с интересными узлами сети (например, матрица вложений, вес softmax и смещение для обучения и т. д.).

def create_model(features, hyper_params):
    model = {}
    vocabulary_size = hyper_params['vocabulary_size']
    hidden_size = hyper_params['hidden_size']
    feature_columns = hyper_params['feature_columns']

    with tf.variable_scope('word2vec'):
        # Creating the Embedding layer
        net = tf.feature_column.input_layer(features, feature_columns)
        # Creating the hidden layer
        net = dense_layer.create_layer(model, net, hidden_size)
        # Creating the SoftMax weight and bias variables to use in the sampled loss function 
        softmax_w = tf.Variable(tf.truncated_normal((vocabulary_size, hidden_size), stddev=0.1), name='softmax_weights')
        softmax_b = tf.Variable(tf.zeros(vocabulary_size), name='softmax_bias')

        model['softmax_w'] = softmax_w
        model['softmax_b'] = softmax_b

    return model

И последнее, но не менее важное: моя основная функция, для запуска которой, в свою очередь, я использую команду tf.app.run(main):

def main():
    path = os.path.join('data', 'data.csv')
    (train_x, train_y), (test_x, test_y) = prepare_data.load_data(path, path, columns, columns[-1])

    vocabulary_size = len(train_x[columns[0]].unique())

    feature_columns = []
    for key in train_x.keys():
        item_id = tf.feature_column.categorical_column_with_identity(key=key, num_buckets=vocabulary_size)
        feature_columns.append(tf.feature_column.embedding_column(item_id, 512))

    classifier = tf.estimator.Estimator(
        model_fn=model_fn,
        params={
            'feature_columns': feature_columns,
            'vocabulary_size': vocabulary_size,
            'hidden_size': 256,
            'learning_rate': 0.001,
            'softmax_sample': 100,
        })

    print('Training the classifier...')
    classifier.train(input_fn=lambda: prepare_data.train_input_fn(train_x, train_y, 128), steps=2)

    print('Evaluating on test dataset...')
    eval_result = classifier.evaluate(input_fn=lambda: prepare_data.eval_input_fn(test_x, test_y, 128))

    print('Printing results...')
    print(eval_result)

Когда я запускаю это, я получаю ошибку ValueError: GraphDef cannot be larger than 2GB.. Почему это? Что я могу делать неправильно?

Ниже мой train_input_fn:

def train_input_fn(features, labels, batch_size):
    def gen():
        for f, l in zip(features, labels):
            yield f, l

    ds = tf.data.Dataset.from_generator(gen, (tf.int64, tf.int64), (tf.TensorShape([None]), tf.TensorShape([None])))
    ds = ds.repeat().batch(batch_size)
    feature, label = ds.make_one_shot_iterator().get_next()

    return {"Input": feature}, label

Набор данных представляет собой простой CSV, как показано ниже:

    Input   Label
0   12600   838
1   12600   4558
2   12600   838
3   12600   4558
4   838     12600

person Dimitris Poulopoulos    schedule 12.06.2018    source источник
comment
Вы не показали свой train_input_fn, скорее всего оттуда, если используете Dataset.from_tensor_slices.   -  person vijay m    schedule 12.06.2018
comment
@vijaym Да, я использую Dataset.from_tensor_slices в своем train_input_fn. В чем проблема с этим?   -  person Dimitris Poulopoulos    schedule 12.06.2018


Ответы (1)


Dataset.from_tensor_slices добавляет весь набор данных в вычислительный граф (см. подробности), поэтому лучше использовать Dataset.from_generator . Я показал пример того, как это сделать с помощью mnist: >Как загрузить MNIST через TensorFlow (включая загрузку)?

person vijay m    schedule 12.06.2018
comment
Я думаю, вы правы. Я создал генератор, как в вашем примере, но теперь он плохо работает с tf.feature_column. Я получаю ошибку AttributeError: 'Tensor' object has no attribute 'values', потому что он ожидает, что функции будут A mapping from key to tensors, а не тензором. Проверьте, как я создаю tf.feature_column.embedding_column в main - person Dimitris Poulopoulos; 12.06.2018
comment
Я действительно ценю твою помощь. Я не использую TFRecords, что вы имеете в виду? Как и в вашем примере с mnist, я передаю два пустых массива (функции, метки) в свой train_input_fn, который возвращает набор данных из генератора. - person Dimitris Poulopoulos; 12.06.2018
comment
О, извините, это был ответ на какой-то другой вопрос, который я помогаю. - person vijay m; 12.06.2018
comment
Возможно, вы захотите отладить автономный вход_fn, проверьте: input-fn/50790054?noredirect=1#comment88590925_50790054" title="как мне проверить содержимое входов оценщика tf numpy input fn"> stackoverflow.com/questions/50789693/ - person vijay m; 12.06.2018
comment
Тип возвращаемого значения моей функции — <BatchDataset shapes: (<unknown>, <unknown>), types: (tf.int64, tf.int64)>. Я думаю, это то, что я хочу. Но как я могу прочитать это на входном слое tf.feature_column.input_layer(features, feature_columns). Я думаю, проблема в этом. - person Dimitris Poulopoulos; 12.06.2018
comment
Ошибка указывает на то, что ваша функция ввода возвращает не функцию функции, а тензоры. Можете ли вы поделиться своим input_fn и образцом данных. А пока взгляните на: tensorflow.org/api_docs/python/ tf/оценщик/входы/ - person vijay m; 12.06.2018