Je ne sais pas s'il existe même une solution avec une gestion automatique des transactions enchaînées/à plusieurs niveaux qui fonctionne de manière fiable (ou qui ne nécessite pas beaucoup de ressources côté base de données)
Eh bien, vous pouvez combiner les deux étapes en une :
- lire à partir du premier tableau A
- utiliser le processeur pour mettre à jour la table A
- utiliser le processeur pour lire à partir de la table B
- utiliser le rédacteur pour mettre à jour la table B
les performances en souffriront beaucoup, car la lecture sur la table B sera une lecture unique par rapport au curseur basé sur la table a
j'opterais pour une stratégie de compensation comme celle-ci
- Les tables (facultatives) utilisées sont des tables temporaires et non les véritables tables de "production", ce qui facilite le travail de compensation avec le découplage des magasins de données de la production
- un échec de l'étape 1 déclenche une autre étape ou un autre job/script
- cette étape/cette tâche/ce script supprime si nécessaire (lignes ou tableau complet)