МОДЕЛЬ ІНТЕЛЕКТУАЛЬНОГО АГЕНТА В ОДНОМІРНОМУ ДИСКРЕТНОМУ СВІТІ

  • В’ячеслав Миколайович Осауленко НТУУ КПІ ім.Сікорського
Ключові слова: інтелектуальний агент, нейронні мережі, складність Колмогорова, ентропія

Анотація

Сучасні обчислення здебільшого виконуються на послідовній архітектурі з розділеним процесором та пам’яттю. Живі організми використовують розподілене обчислення, і вважається, що це забезпечує їм здатність вирішувати такі складні задачі як розпізнавання образів та проявляти інтелектуальну поведінку вцілому. Існує потреба в більш біологічних підходах для обробки інформації. За мету роботи поставлено запропонувати новий спосіб виміру складності на прикладі одномірного бінарного вектору. Це допоможе краще формалізувати мету агента, та накласти обмеження зверху до його здатності розпізнавати та передбачати
паттерни в середовищі. Як компроміс між ентропією та складністю Колмогорова пропонується використовувати сукупну ентропію
n-грам, яка не містить недоліків першої та може бути порахована точно, на відмінно від другої. Показано, що варіюючи дану міру
можна переходити від станів повністю випадкового світу до повністю організованого з поступовою зміною складності. Прийнявши
за мету агента робити найкращі передбачення, проявляється сенс нової міри, що вказує на необхідні ресурси для досягнення мети
для конкретного середовища. Також наводиться короткий огляд невирішених проблем моделювання інтелекту агента та можливих
шляхів їх вирішення. Загалом, запропоновано нову міру складності, сукупну ентропію n-грам, яку можна порахувати точно для вхідних даних. Міра виведена для агента, що робить передбачення паттернів в даних, і може бути застосована для оцінки необхідної складності моделі агента. Недоліком нової міри є її висока обчислювальна складність для високо-розмірних даних. Необхідні нові дослідження для спрощення міри та її подальшого застосування.

Біографія автора

В’ячеслав Миколайович Осауленко, НТУУ КПІ ім.Сікорського

магістр, аспірант НТУУ КПІ

Посилання

A. Turing, “On computable numbers,” Proc. London Math. Soc., vol. 42, pp. 230–265, 1936.

C. E. Shannon, “A mathematical theory of communication,” Bell Syst. Tech. J., vol. 27, no. July 1928, pp. 379–423, 1948.

J. Schmidhuber, “Deep Learning in neural networks: An overview,” Neural Networks, vol. 61, pp. 85–117, 2015.

M. Hutter, Universal artificial intelligence. 2005.

A. Kolmogorov, “Three Approaches to the quantitive definition of Information,” Prob Info Trans, vol. 1, no. 1, pp. 3–11, 1965.

R. J. Solomonoff, “A Formal theory of Inductive Inference,” Info Cont, vol. 7, pp. 1-22-254, 1964.

F. Wörgötter and B. Porr, “Temporal sequence learning, prediction, and control: a review of different models and their relation to biological mechanisms,” Neural Comput., vol. 17, no. 2, pp. 245–319, 2005.

P. Kanerva, “Hyperdimensional computing: An introduction to computing in distributed representa-tion with high-dimensional random vectors,” Cognit. Comput., vol. 1, no. 2, pp. 139–159, 2009.

A. Luczak, B. L. McNaughton, and K. D. Harris, “Packet-based communication in the cortex.,” Nat. Rev. Neurosci., vol. 16, no. 12, pp. 745–755, 2015.

K. D. Harris and G. M. G. Shepherd, “The neocortical circuit: themes and variations,” Nat. Neurosci., vol. 18, no. 2, pp. 170–181, 2015.

G. Palm, “Neural associative memories and sparse coding,” Neural Networks, vol. 37, pp. 165–171, 2013.

H. Barlow, “Redundancy reduction revisited,” Netw. Comput. Neural Syst., vol. 12, no. 3, pp. 241–253, 2001.

K. Morita, J. Jitsev, and A. Morrison, “Corticostriatal circuit mechanisms of value-based action se-lection: Implementation of reinforcement learning algorithms and beyond,” Behav. Brain Res., vol. 311, pp. 110–121, 2016.

M. B. Mirza, R. A. Adams, C. D. Mathys, and K. J. Friston, “Scene Construction, Visual Foraging, and Active Inference,” Front. Comput. Neurosci., vol. 10, no. June, 2016.

D. C. Knill and A. Pouget, “The Bayesian brain: The role of uncertainty in neural coding and compu-tation,” Trends Neurosci., vol. 27, no. 12, pp. 712–719, 2004.

C. L. Baker, R. R. Saxe, and J. B. Tenenbaum, “Bayesian Theory of Mind: Modeling Joint Belief-Desire Attribution,” Proc. thirty-second Annu. Conf. Cogn. Sci. Soc., vol. 1, no. 2006, pp. 2469–2474, 2009.

J. T. Abbott, J. B. Hamrick, and T. L. Griffiths, “Approximating Bayesian inference with a sparse dis-tributed memory system,” Proc. 35th Annu. Conf. Cogn. Sci. Soc., pp. 1686–1691, 2013.

N. Frémaux and W. Gerstner, “Neuromodulated Spike-Timing-Dependent Plasticity and Theory of Three-Factor Learning Rules,” Front. Neural Circuits, vol. 9, no. 85, p. 85, 2016.

Опубліковано
2018-12-21
Як цитувати
[1]
В. Осауленко, МОДЕЛЬ ІНТЕЛЕКТУАЛЬНОГО АГЕНТА В ОДНОМІРНОМУ ДИСКРЕТНОМУ СВІТІ, ІТКІ, vol 43, № 3, с. 30-36, Груд 2018.