mysql — php ограничение памяти сборщик мусора

3 дня ломаю голову к стене.

Я разработал php-скрипт для импорта больших текстовых файлов и заполнения базы данных mysql. Пока я не получу 2 миллиона записей, он работает отлично, но мне нужно импортировать 10 миллионов строк, разделенных на разные файлы.

Мое приложение сканирует файлы в папке, получает расширение файла (у меня есть 4 вида импорта процедур для 4 различных расширений) и вызывает функцию относительного импорта.

У меня есть структура из этих классов:

CLASS SUBJECT1{ public function import_data_1(){
__DESTRUCT(){$this->childObject = null;}
IMPORT SUBJECT1(){
//fopen($file);
//ob_start();
//PDO::BeginTransaction();
//WHILE (FILE) {
//PREPARED STATEMENT
//FILE READING
//GET FILE LINE
//EXECUTE INSERT
//} END WHILE
//PDO::Commit();
//ob_clean(); or ob_flush();
//fclose($file);
//clearstatcache();
}
};}

CLASS SUBJECT2{ same as SUBJECT1;}

CLASS SUBJECT3{ same as SUBJECT1;}

CLASS SUBJECT4{ same as SUBJECT1;}

и основной класс, который запускает процедуру:

CLASS MAIN{
switch($ext)
case "ext1":
$SUBJECT1 = new SUBJECT1();
IMPORT_SUBJECT1();
unset $SUBJECT1;
$SUBJECT1 = null;
break;
case "ext2": //SAME AS CASE ext1 WITH IMPORT_SUBJECT2();
case "ext3": //SAME AS CASE ext1 WITH IMPORT_SUBJECT3();
case "ext4": //SAME AS CASE ext1 WITH IMPORT_SUBJECT4();

}

Он отлично работает с некоторыми настройками файловых буферов mysql (ib_logfile0 и ib_logfile1 установлены как 512Mb).

Проблема в том, что каждый раз, когда процедура завершается, php не освобождает память. Я уверен, что вызывается деструктор (я поместил эхо в метод __destruct), а объект недоступен (var_dump скажем, NULL). Я пробовал так много способов освободить память, но теперь я нахожусь в мертвой точке.

Я также подтвердил
gc_collect_cycles ()
во многих разных точках кода, и он всегда говорит 0 циклов, так что все abject не ссылаются друг на друга.
Я пытался даже удалить структуру класса и вызвать весь код последовательно, но я всегда получаю эту ошибку:

Неустранимая ошибка: недостаточно памяти (выделено 511180800) (попытка выделить 576 байт) в C: \ php \ index.php в строке 219 (строка 219 — выполнение PS для 13-го файла).

Память используется следующим образом:

  • PHP скрипт: 52 МБ
  • конец импорта первого файла: 110 МБ
  • деструкторы и незаданные вызовы: 110 МБ
  • вызов новой процедуры: 110 МБ
  • конец второго файла импорта 250 МБ
  • деструкторы и незаданные вызовы: 250 МБ
  • вызов новой процедуры: 250 МБ

Так как вы можете видеть даже не сбрасываемые объекты, они не освобождают память.

Я попытался установить размер php ini-памяти равным 1024M, но он очень быстро растет и вылетает после 20 файлов.

Любой совет?

Большое спасибо!

РЕДАКТИРОВАТЬ 1:

почтовый код:

class SUBJECT1{

public function __destruct()
{
echo 'destroying subject1 <br/>';
}

public function import_subject1($file,$par1,$par2){
global $pdo;

$aux            = new AUX();
$log            = new LOG();

// ---------------- FILES  ----------------
$input_file    = fopen($file, "r");

// ---------------- PREPARED STATEMENT  ----------------

$PS_insert_data1= $pdo->prepare("INSERT INTO table (ID,PAR1,PAR2,PARN) VALUES (?,?,?,?) ON DUPLICATE KEY UPDATE ID = VALUES(ID), PAR1 = VALUES(PAR1), PAR2 = VALUES(PAR2), PAR3 = VALUES(PAR3), PARN = VALUES(PARN)");

$PS_insert_data2= $pdo->prepare("INSERT INTO table (ID,PAR1,PAR2,PARN) VALUES (?,?,?,?) ON DUPLICATE KEY UPDATE ID = VALUES(ID), PAR1 = VALUES(PAR1), PAR2 = VALUES(PAR2), PAR3 = VALUES(PAR3), PARN = VALUES(PARN)");

//IMPORT
if ($input_file) {
ob_start();
$pdo->beginTransaction();
while (($line = fgets($input_file)) !== false) {
$line = utf8_encode($line);
$array_line = explode("|", $line);
//set null values where i neeed
$array_line = $aux->null_value($array_line);

if(sizeof($array_line)>32){
if(!empty($array_line[25])){
$PS_insert_data1->execute($array_line[0],$array_line[1],$array_line[2],$array_line[5]);
}

$PS_insert_data2->execute($array_line[10],$array_line[11],$array_line[12],$array_line[15]);
}

$pdo->commit();
flush();
ob_clean();
fclose($f_titolarita);
clearstatcache();
}

Я делаю эту итерацию для всех файлов в моей папке, остальные процедуры имеют ту же концепцию.
У меня все еще есть увеличение памяти, и теперь это вылетает с ответом белой страницы: — \

0

Решение

Лично я бы пошел по-другому. Вот шаги, которые я бы сделал:

  • Откройте соединение PDO, установите PDO в режиме исключения
  • Получить список файлов, которые я хочу прочитать
  • Создайте класс, который может использовать PDO и список файлов и выполнять вставки
  • Подготовьте утверждение ОДИН РАЗ, используйте его много раз
  • Транзакция фрагмента PDO фиксирует до 50 (настраиваемых) вставок — это означает, что каждый 50-й раз, когда я вызываю $ stmt-> execute (), я выдаю коммит — который лучше использует жесткий диск, тем самым делая его быстрее
  • Читать каждый файл построчно
  • Разобрать строку и проверить, действительна ли она
  • Если да, добавьте в MySQL, если нет — сообщите об ошибке

Теперь я создал 2 класса и пример того, как мне это сделать. Я тестировал только до части чтения, так как я не знаю ни структуру вашей БД, ни то, что делает AUX ().

class ImportFiles
{
protected $pdo;
protected $statements;
protected $transaction = false;
protected $trx_flush_count = 50; // Commit the transaction at every 50 iterations

public function __construct(PDO $pdo = null)
{
$this->pdo = $pdo;

$this->stmt = $this->pdo->prepare("INSERT INTO table
(ID,PAR1,PAR2,PARN)
VALUES
(?,?,?,?)
ON DUPLICATE KEY UPDATE ID = VALUES(ID), PAR1 = VALUES(PAR1), PAR2 = VALUES(PAR2), PAR3 = VALUES(PAR3), PARN = VALUES(PARN)");
}

public function import($file)
{
if($this->isReadable($file))
{
$file = new FileParser($file);

$this->insert($file);
}
else
{
printf("\nSpecified file is not readable: %s", $file);
}
}

protected function isReadable($file)
{
return (is_file($file) && is_readable($file));
}

protected function insert(FileParser $file)
{
while($file->read())
{
//printf("\nLine %d, value: %s", $file->getLineCount(), $file->getLine());

$this->insertRecord($file);

$this->flush($file);
}

$this->flush(null);
}

// Untested method, no idea whether it does its job or not - might fail
protected function flush(FileParser $file = null)
{
if(!($file->getLineCount() % 50) && !is_null($file))
{
if($this->pdo->inTransaction())
{
$this->pdo->commit();

$this->pdo->beginTransaction();
}
}
else
{
if($this->pdo->inTransaction())
{
$this->pdo->commit();
}
}
}

protected function insertRecord(FileParser $file)
{
$check_value = $file->getParsedLine(25);

if(!empty($check_value))
{
$values = [
$file->getParsedLine[0],
$file->getParsedLine[1],
$file->getParsedLine[2],
$file->getParsedLine[5]
];
}
else
{
$values = [
$file->getParsedLine[10],
$file->getParsedLine[11],
$file->getParsedLine[12],
$file->getParsedLine[15]
];
}

$this->stmt->execute($values);
}
}

class FileParser
{
protected $fh;
protected $lineCount = 0;
protected $line = null;
protected $aux;

public function __construct($file)
{
$this->fh = fopen($file, 'r');
}

public function read()
{
$this->line = fgets($this->fh);

if($this->line !== false) $this->lineCount++;

return $this->line;
}

public function getLineCount()
{
return $this->lineCount;
}

public function getLine()
{
return $this->line;
}

public function getParsedLine($index = null)
{
$line = $this->line;

if(!is_null($line))
{
$line = utf8_encode($line);
$array_line = explode("|", $line);

//set null values where i neeed
$aux = $this->getAUX();
$array_line = $aux->null_value($array_line);

if(sizeof($array_line) > 32)
{
return is_null($index) ? $array_line : isset($array_line[$index]) ? $array_line[$index] : null;
}
else
{
throw new \Exception(sprintf("Invalid array size, expected > 32 got: %s", sizeof($array_line)));
}
}
else
{
return [];
}
}

protected function getAUX()
{
if(is_null($this->aux))
{
$this->aux = new AUX();
}

return $this->aux;
}
}

Использование:

$dsn = 'mysql:dbname=testdb;host=127.0.0.1';
$user = 'dbuser';
$password = 'dbpass';

try
{
$pdo = new PDO($dsn, $user, $password);

$pdo->setAttribute(PDO::ATTR_ERRMODE, PDO::ERRMODE_EXCEPTION);

$import = new ImportFiles($pdo);

$files = ['/usr/local/file1.txt', '/usr/local/file2.txt'];

foreach($files as $file)
{
$import->import($file);
}

} catch (Exception $e)
{
printf("\nError: %s", $e->getMessage());
printf("\nFile: %s", $e->getFile());
printf("\nLine: %s", $e->getLine());
}
1

Другие решения

РЕШИТЬ:

Я сделал этот подход, может быть, это полезно для тех, кто имеет аналогичные проблемы:

Я открыл диспетчер задач и посмотрел на использование памяти для процессов apache и mysql в следующих случаях:

  • Пытался читать и разрабатывать файлы без вызова процедур MySql (использование памяти было в порядке)
  • Пытался читать, уточнять и вставлять в БД только файлы с расширением один за другим (все .ext1, все .ext2, ….)
  • Отладка процедуры с большими объемами памяти, увеличивающими изолирующие функции одна за другой, находя проблемную.
  • Нашел проблему и решил

Проблема заключалась в том, что я назвал функция прохождение в качестве параметра подготовленное заявление. Я думал, что когда-то подготовленный, это был просто «статический» объект для вызова. Что происходит, если вы передаете тот же PS в функции, память растет в геометрической прогрессии.

Надеюсь, это кому-нибудь поможет.

До свидания!

0