В качестве прекрасного введения в эту область вы можете попробовать Стюарта Рейда "10 заблуждений о нейронных сетях". "а>.
Хотя это очень общий вопрос, вот мои пункты:
fast learning curve
(потратив бесчисленное количество времени на "продукты" нелегко оправдаться. Продукт может цитировать скорость, но имейте в виду, что они говорят об экономии миллисекунд / секунд на производственной фазе для прогнозирования хорошо обученной ИНС, но ваше время будет в основном выделено на другие действия, кроме этого - первое изучение и глубокое понимание продукта и его возможностей и слабые стороны, затем на прототипировании модели ИНС и, прежде всего, на ИНС-Функции-Инженерии, затем на сетке гиперпараметризации дизайна-кандидата-ИНС для настройки ее наилучшего обобщения и свойств перекрестной проверки )
support and tools for rapid prototyping
(после того, как мы выйдем за рамки разработанного учеными ИНС, имитирующего XOR, сама фаза прототипирования станет инновационной игровой площадкой и, как таковая, очень затратно как по времени, так и по процессорным ресурсам )
support for smart automated feature scaling
(неизбежно для эволюционной (генетической и др.) обработки поиска для надежных сетей, уменьшенных до достаточного масштаба (для достижения вычислимости в приемлемые сроки) при заданных точные цели )
- поддержка автоматических гиперпараметрических элементов управления для настройки с высоким смещением / переобучением
- поддержка полносвязной ортогональной, управляемой градиентом и случайной обработки «покрытия» (гипер-) параметризованного пространства
- поддержка локальной векторной обработки, средства для быстрой распределенной обработки (не маркетинговая болтовня, а справедливая и разумная архитектура (как Задержки ввода/вывода GPGPU не сильно помогают в обученных сетях (наконец, это задача с низкой интенсивностью вычислений и не более чем набор одного решения sumproduct, поэтому высокая производительность GPU Маскирование задержки, связанной с вводом-выводом, не покрывает огромные задержки, и поэтому «помощь» графического процессора может даже стать катастрофической [доступны количественные цитаты] по сравнению с простыми, хорошо сконфигурированными вычислениями ANN на основе ЦП )
AI/ML NN-Feature Engineering!...забудьте об 6:?[:?[:?]]:1
архитектурах
Это Ключ.
Какой бы AI/ML-Predictor вы ни выбрали,
будь то ИНС, SVM или даже "слабый" алгоритм обучения на основе ансамбля, главная проблема заключается в >не движок, а драйвер — предсказательная сила набора функций.
Не забывайте, какую сложность демонстрирует мультиинструментальная торговая площадка FOREX в режиме реального времени. Определенно на много порядков сложнее, чем 6:1. И вы стремитесь создать Predictor
существо, способное предсказывать, что происходит. < img src="https://i.stack.imgur.com/uyjGj.png" alt="введите здесь описание изображения">
Как сделать это в рамках разумной вычислительной стоимости?
smart tools exist:
feature_selection.RFECV( estimator, # loc_PREDICTOR
step = 1, # remove 1 FEATURE at a time
cv = None, # perform 3-FOLD CrossValidation <-opt. sklearn.cross_validation
scoring = None, # <-opt. aScoreFUN with call-signature aScoreFUN( estimator, X, y )
estimator_params = None, # {}-params for sklearn.grid_search.GridSearchCV()
verbose = 0
)
# Feature ranking with recursive feature elimination
# and cross-validated selection of the best number of features.
|>>> aFeatureImportancesMAP_v4( loc_PREDICTOR, X_mmap )
0. 0.3380673 _ _ _____________________f_O.............RICE_: [216]
1. 0.0147430 _ _ __________________________________f_A...._: [251]
2. 0.0114801 _ _ ___________________f_............ul_5:3O(2)
: [252]
3. 0.0114482 _ _ ______________________________H......GE_1_: [140]
4. 0.0099676 _ _ ______________________________f_V....m7_4_: [197]
5. 0.0083556 _ _ ______________________________f.......7_3_: [198]
6. 0.0081931 _ _ ________________________f_C...........n_0_: [215]
7. 0.0077556 _ _ ______________________f_Tr..........sm5_4_: [113]
8. 0.0073360 _ _ _____________________________f_R.......an_: [217]
9. 0.0072734 _ _ ______________________f_T............m5_3_: [114]
10. 0.0069267 _ _ ______________________d_M.............0_4_: [ 12]
11. 0.0068423 _ _ ______________________________f_......._1_: [200]
12. 0.0058133 _ _ ______________________________f_......._4_: [201]
13. 0.0054673 _ _ ______________________________f_......._2_: [199]
14. 0.0054481 _ _ ______________________f_................2_: [115]
15. 0.0053673 _ _ _____________________f_.................4_: [129]
16. 0.0050523 _ _ ______________________f_................1_: [116]
17. 0.0048710 _ _ ________________________f_..............1_: [108]
18. 0.0048606 _ _ _____________________f_.................3_: [130]
19. 0.0048357 _ _ ________________________________d_......1_: [211]
20. 0.0048018 _ _ _________________________pc.............1_: [ 86]
21. 0.0047817 _ _ ________________________________d.......3_: [212]
22. 0.0045846 _ _ ___________________f_K..................8_: [260]
23. 0.0045753 _ _ _____________________f_.................2_: [131]
1st.[292]-elements account for 100% Importance Score ________________
1st. [50]-elements account for 60%
1st. [40]-elements account for 56%
1st. [30]-elements account for 53% . . . . . . . . . . . . . . . . .
1st. [20]-elements account for 48%
1st. [10]-elements account for 43%
Точность?
Специалисты по ассемблеру и гуру C с первого взгляда будут возражать, однако позвольте мне заявить, что числовая (не)-точность не создает проблем в решениях FX/ANN.
Размерность проклятие делает... Проблемы классов O(2)
и O(3)
не редкость.
Выполнимо как с интеллектуальным/эффективным представлением (read fast...), так и с наносекундным разрешением HFT-каналов ввода/вывода потока данных с отметкой времени.
Иногда даже необходимо уменьшить числовую «точность» входных данных (подвыборка и размытие), чтобы избежать неблагоприятных эффектов (необоснованно затратных в вычислительном отношении) высокой размерности, а также избежать тенденции к переоснащению, чтобы извлечь выгоду из лучших возможностей обобщения. хорошо настроенного AI/ML-Predictor.
(im)PRECISION JUST-RIGHT FOR UNCERTAINTY LEVELs MET ON .predict()-s
___:__:___________MANTISSA|
| v | v|_____________________________________________________________________________________
0.001 | 1023| np.float16 Half precision float: 10 bits mantissa + sign bit| 5 bits exp|
1.02? |
v 123456:|_____________________________________________________________________________________
E00 0.000001 8388607| np.float32 Single precision float: 23 bits mantissa + sign bit| 8 bits exp|
+00 12345.6? DAX ^
+05 1.23456? DAX
123456789012345:|_____________________________________________________________________________________
4503599627370495| np.float64 Double precision float: 52 bits mantissa + sign bit| 11 bits exp|
^|
В любом случае, очаровательный FX-проект, дайте мне знать, если он появится:
![dMM()](https://i.stack.imgur.com /RRdD5.gif)
Чтобы получить другое, непредвзятое мнение о ситуации сверху вниз, похожей на вашу, о которой сообщил другой человек, один может захотеть прочитать и подумайте немного об этом опыте и просто посчитайте недели и месяцы, необходимые для составления представленного списка, освоенного сверху вниз и полного, чтобы принять окончательное решение.
person
user3666197
schedule
11.10.2015