Изучение модели Кераса с помощью распределенного тензорного потока
У меня есть два графических процессора, установленных на двух разных машинах. Я хочу построить кластер, который позволит мне изучить модель Keras, используя два графических процессора вместе.
Keras blog показывает два фрагмента кода в разделе распределенного обучения и связывает официальную документацию Tensorflow.
Моя проблема заключается в том, что я не знаю, как изучить мою модель, написанную на Keras, используя документацию Tensorflow, которая фактически описывает процедуру для Tensorflow объекты.
Например, что мне делать, если я хочу выполнить следующий код на кластере из нескольких GPU?
# For a single-input model with 2 classes (binary classification):
model = Sequential()
model.add(Dense(32, activation='relu', input_dim=100))
model.add(Dense(1, activation='sigmoid'))
model.compile(optimizer='rmsprop',
loss='binary_crossentropy',
metrics=['accuracy'])
# Generate dummy data
import numpy as np
data = np.random.random((1000, 100))
labels = np.random.randint(2, size=(1000, 1))
# Train the model, iterating on the data in batches of 32 samples
model.fit(data, labels, epochs=10, batch_size=32)
1 ответ:
В первой и второй частях блога он объясняет, как использовать модели keras с tensorflow.
Также я нашел этот пример keras сраспределенным обучением .
А вот еще с гороводом .