Отказоустойчивое хранилище обновлений на приложения двигателя
Хранилище данных движка приложений, конечно, имеетпростои . Тем не менее, я хотел бы иметь "fail-safe" put, который является более надежным перед лицом ошибок хранилища данных (см. мотивацию ниже). Похоже, что очередь задач-это очевидное место для отложенной записи, когда хранилище данных недоступно. Однако я не знаю никаких других решений (кроме отправки данных третьей стороне через urlfetch).
Мотивация : у меня есть сущность, которая действительно должна быть помещенным в хранилище данных-просто показывая сообщение об ошибке пользователю не будет делать. Например, возможно, произошел какой-то побочный эффект, который не может быть легко устранен (возможно, какое-то взаимодействие со сторонним сайтом).
Я придумал простую оболочку, которая (я думаю) обеспечивает разумную "безотказность" (см. ниже). Видите ли вы какие-либо проблемы с этим, или у вас есть идея для более надежной реализации? (Примечание: благодаря предложениям, опубликованным в ответах ником Джонсоном и Саксоном Дрюс, этот пост был отредактирован с некоторыми улучшениями в коде.)
import logging
from google.appengine.api.labs.taskqueue import taskqueue
from google.appengine.datastore import entity_pb
from google.appengine.ext import db
from google.appengine.runtime.apiproxy_errors import CapabilityDisabledError
def put_failsafe(e, db_put_deadline=20, retry_countdown=60, queue_name='default'):
"""Tries to e.put(). On success, 1 is returned. If this raises a db.Error
or CapabilityDisabledError, then a task will be enqueued to try to put the
entity (the task will execute after retry_countdown seconds) and 2 will be
returned. If the task cannot be enqueued, then 0 will be returned. Thus a
falsey value is only returned on complete failure.
Note that since the taskqueue payloads are limited to 10kB, if the protobuf
representing e is larger than 10kB then the put will be unable to be
deferred to the taskqueue.
If a put is deferred to the taskqueue, then it won't necessarily be
completed as soon as the datastore is back up. Thus it is possible that
e.put() will occur *after* other, later puts when 1 is returned.
Ensure e's model is imported in the code which defines the task which tries
to re-put e (so that e can be deserialized).
"""
try:
e.put(rpc=db.create_rpc(deadline=db_put_deadline))
return 1
except (db.Error, CapabilityDisabledError), ex1:
try:
taskqueue.add(queue_name=queue_name,
countdown=retry_countdown,
url='/task/retry_put',
payload=db.model_to_protobuf(e).Encode())
logging.info('failed to put to db now, but deferred put to the taskqueue e=%s ex=%s' % (e, ex1))
return 2
except (taskqueue.Error, CapabilityDisabledError), ex2:
return 0
Обработчик запроса для задачи:
from google.appengine.ext import db, webapp
# IMPORTANT: This task deserializes entity protobufs. To ensure that this is
# successful, you must import any db.Model that may need to be
# deserialized here (otherwise this task may raise a KindError).
class RetryPut(webapp.RequestHandler):
def post(self):
e = db.model_from_protobuf(entity_pb.EntityProto(self.request.body))
e.put() # failure will raise an exception => the task to be retried
Я не ожидаю использовать это для каждого put - большую часть времени, показывая сообщение об ошибке просто отлично. Заманчиво использовать его для каждого пут, но я думаю, что иногда это может быть более запутанным для пользователя, если я скажу им, что их изменения появятся позже (и продолжу показывать им старые данные, пока хранилище данных не будет восстановлено и отложенный ставит execute).
2 ответа:
Ваш подход является разумным, но имеет несколько предостережений:
- по умолчанию операция put будет повторяться до тех пор, пока не закончится время. Поскольку у вас есть стратегия резервного копирования, вы можете отказаться от нее раньше - в этом случае вы должны указать параметр rpc для вызова метода put, указав пользовательский крайний срок.
- нет необходимости устанавливать явный обратный отсчет-очередь задач будет повторять неудачные операции для вас с увеличивающимися интервалами.
- вам не нужно использовать pickle-протокол Буферы имеют естественное строковое кодирование, которое намного эффективнее. Смотрите этот пост для демонстрации того, как его использовать.
Как указывает Саксон, полезная нагрузка очереди задач ограничена 10 килобайтами, поэтому у вас могут возникнуть проблемы с большими объектами.- Самое важное, что это изменяет модель согласованности хранилища данных с "сильно согласованной" на "в конечном счете согласованную". То есть, put, который вы поставили в очередь к очереди задач, может быть применен в любое время в будущем, перезаписывая любой изменения, которые были сделаны за это время. Возможно любое количество условий гонки, что по существу делает транзакции бесполезными, если в очереди задач есть отложенные puts.
Одна потенциальная проблема заключается в том, что задачи ограничены 10 кб данных, поэтому это не будет работать, если у вас есть объект, который больше, чем тот, который был замаринован.