Chaque fois que j'ai dû importer un fichier CSV dans une table de base de données, j'ai toujours écrit mon propre analyseur / importateur csv. C'est assez simple.
Voici un exemple.
test.csv
Firstname,Lastname,Age
"Latheesan","Kanes",26
"Adam","Smith",30
test.php
<?php
// Mini Config
$csv_file = 'test.csv';
$delimiter = ',';
$enclosure = '"';
$skip_first_row = true;
$import_chunk = 250;
// Parse CSV & Build Import Query
$import_queries = array();
$first_row_skipped = false;
if (($handle = fopen($csv_file, "r")) !== FALSE) {
while (($data = fgetcsv($handle, 1000, $delimiter, )) !== FALSE) {
if ($skip_first_row && !$first_row_skipped) {
$first_row_skipped = true;
continue;
}
list($firstname, $lastname, $age) = $data;
$import_queries[] = "INSERT INTO myTable (firstname, lastname, age) VALUES ('$firstname', '$lastname', $age);";
}
fclose($handle);
}
// Proceed if any data got parsed
if (sizeof($import_queries))
{
foreach(array_chunk($import_queries, $import_chunk) as $queries)
{
$dbh->query(implode(' ', $queries));
}
}
?>
Les requêtes analysées ressembleront à ceci (si vous print_r
il):
Array
(
[0] => INSERT INTO myTable (firstname, lastname, age) VALUES ('Latheesan', 'Kanes', 26);
[1] => INSERT INTO myTable (firstname, lastname, age) VALUES ('Adam', 'Smith', 30);
)
Vous avez deux options pour l'importation proprement dite dans la base de données :
-
Construisez une collection de requêtes sql d'importation et exécutez-la dans un lot (array_chunk) - cela signifie moins de requêtes sur votre base de données. Cependant, comme vous pouvez le voir, je ne vérifie pas les valeurs du CSV - c'est-à-dire que je fais confiance à ma source de données et que je n'échappe à rien - un peu dangereux...
-
Vous exécutez la requête, dès que vous l'avez construite en échappant les valeurs - le petit inconvénient est qu'il exécutera une requête par ligne en csv....
J'espère que cela vous aidera.