Explications possibles :
-
Java ne fait rien, tandis qu'Oracle calcule les 1000 premières lignes au lieu des 10 premiers.
-
Oracle ne fait rien, tandis que Java calcule les 1000 dernières lignes au lieu des 10 derniers.
-
Les protocoles de communication (par exemple, TCP/IP) attendent beaucoup et doivent ensuite gérer plus de données à la fois, mais le transfert de données maximal sera limité par les limites matérielles . Ceci est contré par la surcharge du protocole, il devrait donc y avoir une taille de récupération optimale et tout ce qui est inférieur ou supérieur serait plus lent ;))
-
Cela empirerait si le processus de récupération était synchrone avec un autre code Java, de sorte que Java ne demande plus de lignes qu'après avoir traité les données précédentes et Oracle ne fait rien pendant ce temps.
Imaginez qu'il y ait 3 personnes :
- Le premier plie le papier A4 en deux
- Le deuxième apporte des piles de papier plié d'une pièce à l'autre
- Le troisième découpe une forme dans le papier plié.
Quelle doit être la taille des piles, si le 1er doit attendre que le 2e revienne et que le 2e doive attendre que le 3e finisse son travail ?
Des piles de 1000 ne seront pas meilleures que des piles de 10 je suppose ;))