Votre problème n'est pas avec le skip()
et limit()
; ça marche bien. Le problème est avec votre logique globale; vous itérez les 39 collections dans la première boucle, puis ajoutez chaque résultat de l'agrégation à cursor_list
.
Je n'arrive pas à comprendre la logique de ce que vous essayez de faire, car le premier exemple consiste à rechercher dans une collection de mots et le second à rechercher dans toutes les collections un champ de mots; Cela dit, vous pouvez probablement simplifier votre approche en quelque chose comme :
offset = 0
per_page = 10
collections = db.list_collection_names()
#
# Add some logic on the collections array to filter what is needed
#
print(collections[offset:offset+per_page])
MODIFIER pour refléter les commentaires. Exemple complet d'une fonction pour effectuer cela. Pas besoin d'une requête d'agrégation - cela ajoute de la complexité.
from pymongo import MongoClient
from random import randint
db = MongoClient()['testdatabase1']
# Set up some data
for i in range(39):
coll_name = f'collection{i}'
db[coll_name].delete_many({}) # Be careful; testing only; this deletes your data
for k in range (randint(0, 2)):
db[coll_name].insert_one({'word': '123456'})
# Main function
def test(offset, per_page, word_to_find):
found = []
collections = db.list_collection_names()
for collection in sorted(collections):
if db[collection].find_one({word_to_find: { '$exists': True}}) is not None:
found.append(collection)
print(found[offset:offset+per_page])
test(offset=0, per_page=10, word_to_find='word')