Параллельные вычисления — это метод одновременного выполнения вычислительных задач на нескольких процессорах для повышения производительности программы. В NumPy вы можете использовать некоторые инструменты и методы для выполнения параллельных вычислений и в полной мере использовать преимущества многоядерных процессоров. В этом блоге мы подробно познакомим вас с параллельными вычислениями в NumPy и продемонстрируем, как применять эти методы на практических примерах.
Универсальные функции — это механизм в NumPy, который позволяет выполнять поэлементные операции с массивами. Универсальные функции выполняют операции с использованием скомпилированного кода, что позволяет выполнять параллельные вычисления.
import numpy as np
import concurrent.futures
# Создать крупномасштабное множество
arr_large = np.random.rand(1000000)
# непараллельные вычисления
result_non_parallel = np.sin(arr_large)
# параллельные вычисления
with concurrent.futures.ThreadPoolExecutor() as executor:
result_parallel = list(executor.map(np.sin, arr_large))
# Проверьте согласованность результатов
assert np.allclose(result_non_parallel, result_parallel)
В некоторых случаях использование нескольких потоков может увеличить скорость выполнения кода. В NumPy многопоточность можно включить с помощью функции np.vectorize и указав target=’parallel’.
# использовать NumPy многопоточность
@np.vectorize(target='parallel')
def parallel_function(x):
return np.sin(x)
result_parallel_threaded = parallel_function(arr_large)
# Проверьте согласованность результатов
assert np.allclose(result_non_parallel, result_parallel_threaded)
Dask — это гибкий инструмент для параллельных вычислений, который можно использовать в сочетании с NumPy для обеспечения возможностей распределенных и параллельных вычислений.
import dask.array as da
# Воля NumPy множество Преобразовать в Dask множество
arr_dask = da.from_array(arr_large, chunks=len(arr_large) // 4)
# параллельные вычисления
result_dask = da.sin(arr_dask)
# Получить окончательный результат
result_dask.compute()
# Проверьте согласованность результатов
assert np.allclose(result_non_parallel, result_dask.compute())
Numba — это JIT-компилятор (точно в срок), который ускоряет выполнение кода Python. Более высокая производительность функций NumPy может быть достигнута посредством JIT-компиляции.
import numba
# использовать Numba JIT Ускорение вычислений
@numba.vectorize(nopython=True)
def numba_parallel_function(x):
return np.sin(x)
result_numba = numba_parallel_function(arr_large)
# Проверьте согласованность результатов
assert np.allclose(result_non_parallel, result_numba)
Cython — это инструмент, который преобразует код Python в код C, тем самым увеличивая скорость выполнения. Параллельные вычисления можно реализовать в Cython с использованием массивов NumPy.
# использовать Cython Выполнить компиляционную оптимизацию
# Пример кода доступен для справки Cython Официальная документация: https://cython.readthedocs.io/.
MPI (интерфейс передачи сообщений) — это стандарт связи в распределенных системах. В некоторых крупномасштабных вычислительных задачах MPI можно использовать для параллельных и распределенных вычислений.
# использовать MPI Выполнять распределенные вычисления
# Пример кода доступен для справки mpi4py Официальная документация: https://mpi4py.readthedocs.io/.
Комбинируя вышеуказанные методы, вы можете реализовать параллельные вычисления в NumPy и повысить эффективность выполнения вашего кода. Выбор правильных инструментов и методов зависит от конкретного сценария применения и вычислительных задач. Я надеюсь, что этот блог поможет вам лучше понять и использовать технологию параллельных вычислений в NumPy.