Простые числа удивительны!
Рубрика «параллелизация»
Сложно ли генерировать 1024-битные простые числа?
2024-05-31 в 8:13, admin, рубрики: rsa, криптографические ключи, оптимизация кода, параллелизация, простые числа, тест простотыЭто непростое условное выполнение
2021-01-03 в 15:14, admin, рубрики: Lua, open source, алгоритм, Алгоритмы, информационная структура алгоритма, информационный граф ялгоритма, параллелизация, параллельное программирование, скрытый параллелизмНекоторое время назад я рассказывал о программном комплексе для выявления скрытого параллелизма в произвольном алгоритме и технологиях его, параллелизма, рационального использовании (https://habr.com/ru/post/530078/). Одним из компонентов этого комплекса является т.н. “универсальный вычислитель”, выполненный в соответствии с архитектурой Data-Flow (далее DF, пото́ковый вычислитель, описание здесь https://habr.com/ru/post/534722/).
Как масштабируется обучение искусственного интеллекта
2019-01-02 в 12:00, admin, рубрики: OpenAI, искусственный интеллект, масштаб градиентного шума, машинное обучение, нейросети, параллелизация, тренировкаМы в OpenAI обнаружили, что масштаб градиентного шума [gradient noise scale], простой статистический метод, предсказывает параллелизуемость обучения нейтральной сети на широком спектре задач. Поскольку у более сложных задач градиент обычно становится более шумным, то увеличение размера пакетов, доступных для одновременной обработки, в будущем окажется полезным, и устранит одно из потенциальных ограничений ИИ-систем. В общем случае эти результаты показывают, что обучение нейросетей надо рассматривать не как загадочное искусство, и что ей можно придать точность и систематизировать.
За последние несколько лет исследователи ИИ достигали всё больше успеха в ускорении обучения нейросети при помощи распараллеливания данных, разбивающего большие пакеты данных на несколько компьютеров. Исследователи успешно использовали пакеты размером в десятки тысяч единиц для классификации изображений и моделирования языка, и даже в миллионы агентов обучения с подкреплением, игравших в Dota 2. Такие большие пакеты позволяют увеличивать объёмы вычислительных мощностей, которые эффективно участвуют в обучении одной модели, и являются одной из сил, движущих рост в области обучения ИИ. Однако со слишком большими пакетами данных происходит быстрое уменьшение алгоритмической отдачи, и непонятно, почему эти ограничения оказываются крупнее для одних задач и мельче для других.
Читать полностью »