MDP (Modular инструментариум за обработка на данни) е библиотека на широко използвани за обработка на данни алгоритми, които могат да се комбинират според тръбопровод аналогия да се изгради по-сложен софтуер за обработка на данни.
От гледна точка на потребителя, MDP се състои от колекция от поднадзорните и ненаблюдавани алгоритми за учене, както и други данни, обработващи елементи (възли), които могат да се комбинират в обработка на данни последователности (потоци) и по-сложни фуражни-напред мрежови архитектури. При един набор от входни данни, MDP се грижи за последователно обучение или извършване на всички възли в мрежата. Това позволява на потребителя да определи сложни алгоритми като серия от прости стъпки за обработка на данни по естествен начин.
Основата на наличните алгоритми непрекъснато се увеличава и включва, за да име, но най-често срещаните, анализ на основните компоненти (PCA и NIPALS), няколко алгоритми Independent факторен анализ (CuBICA, FastICA, TDSEP, нефрит и XSFA), Slow Feature Анализ, Gaussian класификатори, ограничена Болцман машина, и неприсъстващи Linear вграждането.
Особено внимание е било взето, за да направи изчисления ефективно по отношение на скоростта и паметта. За да се намалят изискванията за памет, е възможно да се извърши с помощта на обучение партиди от данни, и да се определят параметрите на вътрешните възли да бъдат единични точност, което прави използването на много голям набор от данни е възможно. Нещо повече, "паралелна"-пакет предлага паралелно изпълнение на основни възли и потоци.
От гледна точка на разработчика, MDP е рамка, която прави изпълнението на нови алгоритми надзор и без надзор от ученето лесно и ясно. Основният клас, "Възел", се грижи за досадни задачи като числен вид и размерност проверка, оставяйки на разработчика да се концентрирате върху изпълнението на етапите на обучение и изпълнение. Поради общия интерфейс, възловата точка след това автоматично обединява с останалата част от библиотеката и може да се използва в мрежа заедно с други възли. A възел може да има няколко фази на обучение и дори неопределен брой на фазите. Това позволява прилагането на алгоритми, които трябва да се съберат някои статистически данни за целия вход, преди да се пристъпи към фактическо обучение, както и други, които се нуждаят, за да превъртите през фаза на обучение, докато критерий за конвергенция е изпълнено. Способността да се обучават всяка фаза с помощта на парчета от въвеждане на данни се поддържа, ако парчетата са създадени с итератори. Освен това, катастрофата възстановяване се предлага по желание: в случай на повреда, текущото състояние на потока е запазена за по-късна проверка.
MDP е написан в контекста на теоретичните изследвания в неврологията, но тя е била предназначена да бъде от полза при всяка ситуация, в която се използват тренират данни за обработка на алгоритми. Простотата си от страната на потребителя заедно с повторна употреба на прилаганите възли тя също валиден образователен инструмент направи
Какво ново в тази версия:.
- Python 3 подкрепа.
- Нови разширения: кеширане и градиент .
- Една подобрена и разширена урок.
- Няколко подобрения и поправки.
- Тази версия е по лиценз на BSD.
Какво ново във версия 2.5:
- 30.06.2009: Добавена онлайн откриване на числения бекенд , паралелно подкрепа питон, symeig бекенд и числения бекенд към изхода на единица тестове. Трябва да помогне за отстраняване на грешки.
- 2009-06-12:. Интеграция на изключване и хистограма възли
- 2009-06-12:. Фиксирана бъг в паралелен поток (обработка на изключения)
- 9.6.2009: Фиксирана бъг в LLENode когато output_dim е с плаваща запетая. Благодарение на Konrad Hinsen.
- 2009-06-05:. Фиксирани бъгове в паралелния поток за множество Schedulers
- 2009-06-05:. Фиксирана бъг в слой обратнопропорционална, благодарение на Alberto Ескаланте
- 2009-04-29:. Добавена LinearRegressionNode
- 03.31.2009: PCANode не се оплаква вече, когато ковариация матрица има отрицателни собствени стойности IFF SVD == True или намаляване == True. Ако output_dim е посочено има желаното вариацията, отрицателни собствени стойности се игнорират. Подобрена съобщение за грешка за SFANode в случай на отрицателни собствени стойности, сега ние предлагаме да се добавя нищо възела с PCANode (СВД = True) или PCANode (намаляване = True).
- 2009-03-26: мигрирали от стария пакет нишка към новата резбата един. Добавен флаг, за да забраните кеширане в процес Scheduler. Има някои скъсване промени за потребителски Schedulers (паралелно обучение или изпълнение на потока не е засегната).
- 03.25.2009:. Добавен редакция SVN подкрепа проследяване
- 03.25.2009: Премахнато copy_callable флага за планировчика, че сега това е напълно заменя с разклоняващите на TaskCallable. Това не оказва влияние за удобно ParallelFlow интерфейс, но обичай Schedulers се чупят.
- 22.03.2009:. Изпълнено кеширане в ProcessScheduler
- 02.22.2009:. Make_parallel сега работи изцяло на място, за да пестите памет
- 02.12.2009:. Добавен методи контейнер, за да FlowNode
- 03.03.2009:. Публикувана CrossCovarianceMatrix с тестове
- 2009-02-03:. Публикувана IdentityNode
- 30.01.2009:. Добавена е функция помощник в hinet директно да покаже HTML поток представителство
- 2009-01-22:. Оставя output_dim в Layer да бъде настроен мързеливо
- 12.23.2008:. Добавен total_variance към nipals възел
- 12.23.2008:. Винаги задавайте explained_variance и total_variance след обучение в PCANode
- 12.12.2008: Modified symrand наистина да се върне симетрични матрици (и не само положително определено). Адаптирана GaussianClassifierNode да отчете това. Адаптирана symrand да се върне и сложни Hermitian матрици.
- 12.11.2008: Фиксирана един проблем в PCANode (когато output_dim бе определен за input_dim общото разсейване се третира като неизвестни). Fixed var_part параметър в ParallelPCANode.
- 12.11.2008:. Добавен var_part функция, за да PCANode (филтър според вариация спрямо absoute вариацията)
- 2008-12-04: Фиксирана липсва ос арг в АМАКС повикване в урок. Благодарение на Samuel John!
- 2008-12-04: Фиксирана празната итератор управляваща данните в ParallelFlow. Също така добавя празни чекове итератор в нормалния поток (повдигне изключение, ако итератора е празен).
- 19.11.2008: Modified СПС и ДАГ възли, за да проверите за negaive собствени стойности в матриците CoV
- 19.11.2008: symeig интегрирани в scipy, MDP да го използвате от там сега .
- 2008-11-18:. Публикувана ParallelFDANode
- 2008-11-18:. Updated влака изискуем за ParallelFlow да подкрепи допълнителни аргументи
- 2008-11-05: Rewrite на паралелния код изработка, сега поддържа hinet структури .
- 2008-11-03: Rewrite на hinet HTML repesentation създател. За съжаление това също разгражда публичния интерфейс, но промените са доста прости.
- 2008-10-29: Изгасете предупреждения, идващи от отдалечени процеси в ProcessScheduler
- 2008-10-27:. Фиксирана проблем с презаписване kwargs в метода на първоначален на ParallelFlow
- 10.24.2008:. Fixed pretrained възли бъг в hinet.FlowNode
- 20.10.2008:. Fixed критичен бъг внос успоредно на пакетите, когато РР (паралелно Пайтън библиотека) е инсталиран
<силни> Изисквания
- Python
- NumPy
- SciPy
Коментари не е намерена