Download the PHP package pavel_agarkov/speed-hunter without Composer
On this page you can find all versions of the php package pavel_agarkov/speed-hunter. It is possible to download/install these versions without Composer. Possible dependencies are resolved automatically.
Download pavel_agarkov/speed-hunter
More information about pavel_agarkov/speed-hunter
Files in pavel_agarkov/speed-hunter
Package speed-hunter
Short Description Managing php-cli processes from under php-cgi and waiting for a response from the last process. (Only for * nix systems with shared memory support).
License MIT
Homepage https://github.com/PavelAgarkov/speed-hunter
Informations about the package speed-hunter
Введение
Можно скачать пакет из https://packagist.org:
composer require pavel_agarkov/speed-hunter
Запуск многозадачной обработки во время обработки запроса на сервере.Пакет является встраиваемым. Работает только на unix подобных OC. Пакет работает с разделяемой памятью unix.
Пакетом предусмотрены 3 варианта работы:
- запуск одиночного процесса, отвязывающегося от основного потока вывода(т.е. не требует ожидания,
в дальнейшем "асинхронным");
- запуск множества асинхронных процессов;
- запуск множества процессов, удерживающих поток вывода за управляющим процессом (необходимо для получения данных,
записанных каждым отдельным процессом в разделяемую память).
Перечисленные варианты работы применимы как к cgi так и к cli режимам php. Инициализация приложения выполняется однотипно, за исключением передаваемых параметров. Приложение принимает одним из параметров конфигурации имя файла php(в котором необходимо расположить логику работы данного процесса) относительно положения инициализирующего файла.
Инициализация и запуск одиночного асинхронного процесса
Пример:
Starting::singleAsyncProcess принимает массив где:
"jobName" - относительный пусть до файла процесса,
"shSizeForOneJob" - объем разделяемой памяти в байтах для процесса,
"data" - массив с данными передаваемыми в процесс.
Логика процесса "jobName" => 'jobs/async_1' находится в файле jobs/async_1.php
где:
$argv - массив переданных в процесс параметров(является необходимым),
function (&$Job, $read) {} - анонимная функция содержащую логику работы процесса c параметрами:
&$Job - ссылка на объект обработчика задания,
$read - передаваемые данные из основного процесса.
Указанный пример работает следующим образом:
1. В основном процессе инициализируется объект для работы с параллельными заданиями.
2. Для указанного процесса резервируется разделяемая память.
3. Поток вывода процесса перенаправляется, освобождая поток вывода для основного процесса.
4. В создавшемся процессе выполняется анонимная функция переданная в Job::runSingleAsyncJob().
5. По окончанию выполнения основной логики очищается ячейка разделяемой памяти для процесса.
Инициализация и запуск нескольких асинхронных процессов
Пример:
Starting::multipleAsyncProcesses() принимает массив из массивов конфигураций определенного набора процессов, где:
"jobName" - относительный пусть до файла процесса,
"numberJobs" - количество одинаковых процессов "jobName" для запуска,
"shSizeForOneJob" - объем разделяемой памяти в байтах для каждого процесса,
"dataPartitioning" - массив определяющий передаваемые данных в каждый процесс:
параметр "flagPartitioning" - 0 или 1, если "flagPartitioning" = 0, то данные
поставляются в каждый процесс в указанном виде, иначе если "flagPartitioning" = 1,
то данные указанные разделяются для количества процессов поровну,
т.е. если указано "numberJobs" => 3 и "flagPartitioning" => 1,
то "dataToPartitioning" => array(1, 2, 3) разделится на 3 массива,
в каждом из которых будет по 1 элементу по порядку и массива array(1, 2, 3).
Число элементов массива не может быть меньше чем количество процессов.
Инициализация и запуск нескольких процессов, удерживающих поток вывода за управляющим процессом
Пример:
Starting::parallel() использует такой же набор параметров для инициализации, как и Starting::multipleAsyncProcesses().
Основным отличием Starting::parallel() от Starting::multipleAsyncProcesses() является удержание управления за основным процессом с ожиданием выполнения дочерних процессов, что позволяет разделять работу "одного процесса" на "большее число процессов" с дальнейшим получением данных из каждого параллельного процесса. Получение данных для основного процесса происходит в строке:
Отладка
Отладка параллельной работы процессов лучше всего доступна в IDE поддерживающей несколько одновременных подключений отладчика.
Рекомендации
Для контроля разделяемой памяти и открытых процессов в debian системах можно использовать
стоковые утилиты - ipcs
и ps
или любые, имеющие схожий функционал. Для использования в режиме
cgi предпочтительно иметь фоновый процесс, следящий за заполнением разделяемой памяти, а так же процесс
для контроля открытых процессов - на случай переполнения оперативной памяти.
All versions of speed-hunter with dependencies
ext-shmop Version *