Sei sulla pagina 1di 10

Um algoritmo de aprendizado probabil stico para redes o neurais qu anticas baseado na superposic a

Adenilton J. Silva1 , Wilson R. Oliveira2 , Teresa B. Ludermir1 Centro de Inform atica Universidade Federal de Pernambuco (UFPE) Av. Prof. Moraes Rego, 1235 - Cidade Universit aria Recife PE Brasil
2 1

Departamento de Estat stica e Inform atica Universidade Federal Rural de Pernambuco Rua Dom Manoel de Medeiros, s/n, Dois Irm aos Recife PE Brasil
{ajs3,tbl}@cin.ufpe.br, wrdo@gmail.com

Abstract. In this paper we analyse the possibility for using the principles of quantum computation to the development of supervised learning algorithms for articial neural networks. Several algorithms were proposed with this objective. But there is a problem in all algorithms analyzed in this paper: the use of no unitary and nonlinear quantum operators. The learning algorithms for neural networks can be classied in iterative and based in the superposition. The algorithms based in the superposition generally use the Grovers algorithm with a no unitary operator. In this work we propose an algorithm based in the superposition combining an articial neural network and a quantum probabilistic memory. Resumo. Neste artigo e pios da investigada a possibilidade de utilizar os princ mec anica qu antica para o desenvolvimento de algoritmos de aprendizado supervisionado para redes neurais. Diversos algoritmos j a foram propostos com esta nalidade, mostraremos que todos, os analisados neste artigo, apresentam um problema em comum: a utilizac a anticos n ao unit arios o de operadores qu ou n ao lineares. Os algoritmos para redes neurais qu anticas podem ser classicados em iterativos e baseados na superposic a o. Os algoritmos baseados na superposic a aculo n ao o em geral utilizam o algoritmo de Grover com or unit ario. Neste trabalho e a proposto um algoritmo baseado na superposic o combinando redes neurais com uma mem oria qu antica probabil stica.

o 1. Introduc a
o originou A possibilidade de utilizar os princ pios da mec anica qu antica na computac a o qu o a computac a antica [Feynman 1982]. Um dos objetivos da pesquisa em computac a encontrar algoritmos que sejam mais ecientes que os algoritmos cl qu antica e assicos co o [Shor 1997] e nhecidos. Exemplos de sucesso nessa busca s ao o algoritmo de Fatorac a o algoritmo qu antico de busca [Grover 1996]. Neste artigo ser a investigada a possibilidade de utilizar princ pios da mec anica qu antica para o desenvolvimento de algoritmos de treinamento supervisionados para redes neurais. o qu O conceito de computac a antica neural foi introduzido em [Kak 1995], onde o qu foi criado um novo paradigma utilizando redes neurais e computac a antica e abrindo es na pesquisa em redes neurais. Assim como ocorre com algoritmos de diversas direc o

o, espera-se que as propriedades da computac o qu busca e fatorac a a antica permitam a o de algoritmos de aprendizado para redes neurais mais ecientes que os conhecidos criac a atualmente. es de ativac o utilizadas nos modelos de redes neuA n ao linearidade das func o a rais favoreceu ao atraso do desenvolvimento das redes neurais qu anticas (RNQ), mas em [Altaisky 2001] foi proposto um sistema qu antico onde a regra delta, utilizada no treinamento do perceptron, pode ser utilizada. Recentemente, diversos modelos de redes neu o de algoritmo rais qu anticas t em sido propostos, mas permanece o desao da elaborac a o natural dos algoritmos de aprendizado conhecidos de aprendizado qu antico e adaptac a [Oliveira et al. 2008]. dividido em quatro sec es. Na sec o 2 s O restante deste artigo e o a ao apresenta es deste trabalho se dos os postulados da mec anica qu antica. As principais contribuic o es 3 e 4. Na sec o 3 s encontram nas sec o a ao analisados alguns dos modelos de redes o dos algoritmos e neurais qu anticas e seus algoritmos de treinamento. Uma classicac a vericado que os algoritmos de treinamento dos modelos analisados queproposta e e o 4 e proposto um algoritmo baseado bram os postulados da mec anica qu antica. Na sec a o que n na superposic a ao apresenta os problemas encontrados nos modelos analisados. o 5 e realizada a conclus Finalmente na sec a ao.

o Qu 2. Computac a antica
o s Nesta sec a ao descritos os quatro postulados da mec anica qu antica como apresentados importante lembrar que a mec uma em [Nielsen and Chuang 2000]. E anica qu antica e teoria em desenvolvimento, mas neste trabalho ser a considerado que os postulados est ao o de um computador qu poss o 3 ser corretos e que a construc a antico e vel. Na sec a a mostrado que os algoritmos de treinamento de redes neurais denidos at e o momento quebram o postulado 2.2. Postulado 2.1. Qualquer sistema f sico isolado est a associado a um espac o vetorial complexo V com produto interno (um espac o de Hilbert). Um sistema e completamente descrito por um vetor unit ario (vetor de estado) em V . Postulado 2.2. A evoluc a antico fechado e o de um sistema qu descrito por uma transformac a aria. Isto e a o linear unit , o estado | de um sistema no instante t1 est relacionado com o estado | do sistema no instante t2 por uma transformac a aria o unit U que depende apenas de t1 e t2 , | = U | Postulado 2.3. Medic o anticas s ao descritas por uma colec a es qu o {Mm } de operadores de medic a o vetorial associado ao sistema que est a o. Estes operadores agem sobre o espac sendo medido. O ndice m refere-se a veis sa das que podem ocorrer na medic a ` s poss o. Se o estado do sistema qu antico e a ao a | imediatamente antes da medic o ocorrer, ent probabilidade do resultado m ocorrer e dada por
p(m) = | Mm Mm | .

Postulado 2.4. O estado de um sistema f sico composto e o produto tensorial dos estados dos sistemas f sicos componentes. Al em disso, se os sistemas estiverem numerados de 1 a n, e o sistema n umero i estiver no estado |i , ent ao o estado do sistema total e |1 |n .

3. Redes neurais qu anticas


o ser Nesta sec a ao descritos alguns dos modelos de redes neurais qu anticas e seus algoritmos de treinamento. Ser a vericado que a maioria dos modelos apresenta um pro o de operadores n blema comum no algoritmo de treinamento, a utilizac a ao lineares ou n ao unit arios. Esta quebra do postulado 2.2 da mec anica qu antica ir a impossibilitar a execuc ao destes algoritmos em um hipot etico computador qu antico. Os algoritmos de aprendizado das redes neurais qu anticas propostos at e o mo o. Nas pr mento podem ser classicados em iterativos e baseados na superposic a oximas es ser subsec o a realizada uma an alise dos algoritmos de treinamento das RNQ. 3.1. Algoritmos iterativos Dois modelos de redes neurais com algoritmos de treinamento iterativos foram propostos para o treinamento de uma vers ao de um perceptron qu antico [Altaisky 2001, Zhou and Ding 2007]. A vantagem destes modelos quando comparados ao perceptron a capacidade de classicar corretamente problemas n e ao linearmente separ aveis. 3.1.1. Regra delta qu antica um dos primeiros a tratar sobre uma vers O trabalho de Altaisky [Altaisky 2001] e ao qu antica do perceptron. Para representar os pesos de um neur onio s ao utilizadas portas iterativa e baseada na regra delta. qu anticas sobre um qbit. A regra de aprendizado e es de Altaisky armou que dicilmente ser ao constru das an alogas qu anticas das func o o n ativac a ao lineares usualmente utilizadas em redes neurais. Dessa forma Altaisky o de ativac o linear e uma regra prop os uma vers ao qu antica do perceptron com func a a o do erro. de aprendizado por correc a Um perceptron em um sistema qu antico com entradas |x1 , , |xn ter a sua sa da |y denida da seguinte forma:
n

|y = F
j =1

w j |xj ,

(1)

e um operador qu onde w j s ao matrizes 22 representando os pesos do neur onio, F antico. = I , onde a sa mostrada considerando F dada A regra de aprendizado e da no tempo t e por:
n

|y (t) =
j =1

w j (t) |xj ,

(2)

o do erro Com a seguinte regra de aprendizado por correc a w j (t + 1) = w j (t) + (|d |y (t) ) xj | (3)

a resposta desejada. onde |d e Teorema 3.1. A regra de aprendizado 3 altera as matrizes w j de forma a conduzir a sa da |y do perceptron com a func a a o de ativac o I a resposta desejada |d . Demonstrac a odulo quadr atico da diferenc a entre a sa da real e a dese o. Considere o m o (1) jada. Pela equac a

|| |d |y (t + 1) || = || |d
j =1

w j (t + 1) |xj ||2

(4)

o (3) E pela equac a

|| |d
j =1 n

w j (t + 1) |xj ||2 =

|| |d
j =1 n

[w j (t) + (|d |y ) xj |] |xj ||2 = [w j (t) |xj + (|d |y ) xj | |xj ] ||2 = (5)

|| |d
j =1

|| |d
j =1

[w j (t) |xj ] + n (|d |y )||2 = || |d |y (t) + n (|d |y )||2 = (1 n )2 || |d |y (t) ||2

Logo || |d |y (t + 1) ||2 = (1 n )2 || |d |y (t) ||2 e considerando 0 < < 1/n conclui-se que || |d |y (t + 1) ||2 < || |d |y (t) ||2

o Apesar de conduzir o sistema a resposta desejada, a regra expressa na equac a 3 n ao preserva a unitariedade dos operadores w j durante o aprendizado [Altaisky 2001]. Desrespeitando o postulado 2.2 da mec anica qu antica. Lema 3.1. A regra de aprendizado descrita na equac a ao preserva a unitariedade o 3 n dos operadores w j .

o ser Demonstrac a a a realizada por contra exemplo. Para isto ser a re o. A demonstrac o do algoritmo de aprendizado para um peso da rede, considere na alizada uma iterac a o 3 que j = 1, o peso w equac a 1 (t) = I , que a resposta desejada seja |d = |1 , a sa da dada por |0 , que a entrada associada a w atual da rede e 1 (t) seja |xj = |1 e = 0.5. Tem-se ent ao que w j (t + 1) = I + 0, 5(|1 |0 ) 1| = I + 0, 5(|1 1| |0 1|) = 1 0 0 1 + 0 0.5 0 0 .5 = 1 0.5 0 1 .5

(6)

unit De onde se conclui que w1 (t + 1) n ao e aria. tentar escolher uma Uma forma de tentar manter a unitariedade dos operadores e taxa de aprendizado que mantenha a unitariedade, mas esta t ecnica n ao resolver a o pro o do lema anterior. Se for utilizada uma blema. Isto pode ser visto voltando a demonstrac a taxa de aprendizado arbitr aria chegar-se-ia a w 1 (t + 1) = 1 0 1+ = o de unitariedade e segundo a condic a 1 + 2 2 2 (1 + )2 = 1 0 0 1 w 1 (t + 1)w 1 (t + 1) 1 + 2 2 2 (1 + )2 (7)

de onde se conclui que = 0, ou seja, para este caso n ao existe taxa de aprendizado o (3) seja realizada sem quebrar o n ao nula que permita que a regra expressa na equac a postulado 2.2 da mec anica qu antica. 3.1.2. Rede neural qu antica M-P proposto por Rigui Zhou e Qiulin Ding Outro modelo para um perceptron qu antico e [Zhou and Ding 2007]. Um perceptron qu antico com n entradas, |x1 , , |xn , tem nica matriz W de dimens seus pesos representados por uma u ao 2n 2n , i.e., um operador o (8). qu antico sobre n qbits. A sa da |y ser a determinada como descrito na equac a |y = W |x1 , , xn (8)

O algoritmo 1 descreve o aprendizado da rede neural qu antica M-P. O crit erio de es de aprendizado ou o erro de um parada pode ser, por exemplo, o n umero de iterac o o. conjunto de treinamento ou validac a o dos pesos wij no algoritmo Existem alguns problemas no processo de atualizac a de aprendizado da rede neural qu antica M-P. No passo 5 do algoritmo a i- esima amplitude dos qbits |O e | s ao acessadas. Al em disso, a regra mant em o problema da n ao unitariedade.

Algoritmo 1: Treinamento RNQ M-P 0 1 Inicialize a matriz de pesos W . 2 Dado um conjunto de pares de entrada-sa da (| , |O ). 3 enquanto Crit erio de parada n ao for alcanc ado fac a t 4 Calcule a sa da | = W | . t+1 t + (|O i | i ) | j . 5 Atualize os pesos da rede wij = wij 6 m

Para um melhor entendimento do algoritmo e para vericar o problema com a o do unitariedade segue um exemplo, mostrado em [Zhou and Ding 2007], de uma iterac a algoritmo. Suponha W 0 = 0 1 1 0 ;
1 (|0 2 1 |1 ), ( |0 + |1 ) 2

O par de entrada-sa da | =

1 dada por | = W 0 | = A sa da atual da rede e (|0 + |1 ) 2 1 calculada da seguinte forma: A nova matriz de pesos W e 1 0 w00 = w00 + (|O

| 0 ) |
0

1 1 1 = 0 + ( ) = 1 2 2 2

1 0 w01 = w01 + (|O

| 0 ) |
1

1 1 1 = 1 + ( ) = 2 2 2 2
1

1 0 w10 = w10 + (|O

| 1 ) | | 1 ) |

1 1 1 = 1 + ( ) = 1 2 2 2 1 1 1 = 0 + ( ) = 0 2 2 2

1 0 w11 = w11 + (|O

: Ent ao a matriz de pesos W 1 e W1 = 1 2 1 0

unit que evidentemente n ao e aria. Ocorrendo uma quebra do postulado 2.2 na primeira o do algoritmo. iterac a Apesar deste problema no algoritmo de aprendizado, a estrutura da rede neural M-P permite que um neur onio possa separar padr oes n ao linearmente separ aveis. Por o (9) pode ser utilizada para resolver o exemplo, a matriz de pesos W descrita na equac a problema da paridade de 2 bits [Zhou and Ding 2007]. 1 0 W = 0 0 0 1 0 0 0 0 0 1 0 0 1 0

(9)

3.2. Treinamento com o algoritmo de Grover Os modelos de redes neurais qu anticas apresentados at e o momento possuem algoritmo o ser de treinamento iterativo. Nesta sec a ao descritos algoritmos de treinamento para redes neurais articiais qu anticas onde os padr oes do conjunto de treinamento s ao apresentados o. Isto e poss a rede neural simult aneamente, em superposic a vel devido ao algoritmo proposto por Ventura [Ventura and Martinez 1999] que permite criar um estado qu antico superposto contendo os elementos de um dado conjunto. Este algoritmo pode ser utilizado para criar um estado superposto contendo os padr oes e respostas desejadas de um conjunto o. de treinamento e validac a O algoritmo de busca qu antico proposto por Grover j a foi utilizado para treinar diversos modelos de redes neurais. Este tipo de aprendizado foi proposto em [Ricks and Ventura 2004] e foi utilizado para o treinamento de redes neurais fuzzy [Panella and Martinelli 2009b], redes neurais sem peso [Silva et al. 2010] e redes neurais baseadas no perceptron de m ultiplas camadas [Panella and Martinelli 2009a]. O problema encontrado em todos os modelos de redes neurais que utilizam o algoritmo de busca qu antico [Ricks and Ventura 2004, Panella and Martinelli 2009b, o uso de um operador n Panella and Martinelli 2009a, Silva et al. 2010] e ao linear como or aculo. Para vericar este problema ser a analisado o treinamento baseado no algoritmo ` redes neurais sem peso. Um neur de busca qu antico aplicado a onio sem peso possui um estado qu antico | com quatro registradores. O primeiro registrador s ir a armazenar os par ametros livres da rede, o segundo registrador p ir a armazenar os padr oes de treinamento, o terceiro registrador o ir a armazenar a sa da do neur onio e o quarto registrador d, utilizado apenas durante o aprendizado, ir a armazenar a sa da desejada. criar uma superposic o com todas as A ideia do algoritmo de treinamento e a es para cada tupla do estado | . Neste estado e aplicado o opeposs veis combinac o rador que descreve a ac ao do neur onio que calcula simult aneamente a sa da da rede para o no estado | . Em seguida o algoritmo de Grover e aplicado para encada congurac a contar o conjunto de par ametros que fez com que a rede produzisse a sa da desejada. O algoritmo 2 descreve o treinamento de redes neurais sem peso com o algoritmo de Grover. o do or utilizado O problema do algoritmo 2 se encontra na aplicac a aculo, que e para marcar os padr oes pi que geraram a sa da desejada para todos os poss veis valores n no conjunto de treinamento. Este or aculo e ao linear e equivalente ao utilizado em o f [Panella and Martinelli 2009a]. Se a sua implementac a sica for poss vel poder a ser o ser provado que P = N P [Abrams and Lloyd 1998]. Na pr oxima sec a a proposto um algoritmo para redes neurais qu anticas que n ao utiliza operadores n ao lineares.

o 4. Algoritmo de aprendizado probabil stico baseado na superposic a


o ser o, a vanNesta sec a a denido um algoritmo probabil stico baseado na superposic a a n tagem deste algoritmo quando comparado aos modelos propostos anteriormente e ao o de operadores n o utilizac a ao unit arios e n ao lineares e a possibilidade de sua utilizac a com diversos modelos anteriormente apresentados na literatura. O algoritmo 3 descreve o. Ele e uma vers o aprendizado probabil stico baseado na superposic a ao probabil stica que ap o dos dado algoritmo 2. A diferenc a entre estes algoritmos e os a apresentac a dos a rede o algoritmo 2 utiliza uma busca qu antica e o algoritmo 3 utiliza o algoritmo

o Algoritmo 2: Aprendizado baseado na superposic a 1 Inicializar todos os qbits no registrador s com o estado H |0 . 2 Inicializar os registros p, o , d com o estado qu antico |p = p i=1 |pi , 0, di . o operador qu o do 3 | = N | , onde N e antico que representa a ac a neur onio. 4 Utilizar um or aculo qu antico para mudar a fase dos estados onde os registros p, o e d = p | p , d , i=1 i i di o inversa ao neur 5 Aplicar o operador com ac a onio no estado | , | = N 1 | , para desemaranhar o estado | 6 Aplicar o operador Hadamard sobre o registro dos seletores |s = H |s 7 Realizar uma mudanc a de fase em s, com todo estado da base, exceto o |0 , recebendo uma fase de -1. 8 Aplicar o operador Hadamard sobre o registro dos seletores |s = H |s pi o n 9 Repetir os passos 3, 4, 5, 6, 7 e 8 T = n vezes, onde n e umero de 4 poss veis seletores da rede. 10 Medir o registrador s para obter os par ametros desejados.

o de uma mem de recuperac a oria qu antica probabil stica [Trugenberger 2002] para aumentar a amplitude de probabilidade dos par ametros de treinamento que zeram a rede produzir a resposta desejada para todos os padr oes do conjunto de treinamento. Com esta o a n o e removida. modicac a ao linearidade do algoritmo baseado na superposic a A mem oria qu antica probabil stica (MQP) possui uma capacidade de armazenamento superior as mem orias convencionais. Uma MQP com n qbits pode armazenar 2n , o e probabil o de informac o no entanto seu algoritmo de recuperac a stico. A recuperac a a dada em duas etapas probabil e sticas. Na primeira etapa a MQP verica se o padr ao a ser recuperado est a na mem oria, a probabilidade de um padr ao i ser recuperado nesta 1 2 P (accept) = p etapa e d (i, pk ) . Na segunda etapa o algoritmo recupera k=1 p cos 2n H o (10). o registro desejado com a probabilidadede dada na equac a P (pk |i) = 1 cos2 dH (i, pk ) p P (accept) 2n (10)

Para utilizar a mem oria qu antica probabil stica no treinamento de redes neurais articiais ser ao necess arios cinco registradores. Os quatro primeiros s, p,, d e o foram ltimo registrador e ser descritos anteriormente. O u a inicializado com o valor |0 t e ter a seu valor alterado para |1 t quando os registradores d e o possu rem o mesmo valor, esta o pode ser realizada utilizando o operador Eode que pode ser facilmente denido operac a o da porta Toffoli. O escalar t determina determina o n como uma generalizac a umero de qbits no registrador e, este valor pode inuenciar no desempenho da MQP e consequentemente no treinamento da rede neural. polinomial em relac o ao n O custo computacional do algoritmo 3 e a umero de o qbits utilizados no registro e, enquanto o algoritmo 2 possui um custo linear em relac a ao n umero de poss veis par ametros da rede. Como o n umero de par ametros de uma rede exponencial em relac o ao n neural e a umero de bits utilizados para codicar os par ametros, conclui-se que o algoritmo 2 ter a tempo computacional superior ao algoritmo 3. Apesar

o Algoritmo 3: Aprendizado probabil stico baseado na superposic a 1 Inicializar todos os qbits no registrador s com o estado H |0 . 2 Inicializar os registros p, o , d com o estado qu antico |p = p i=1 |pi , 0, di . 3 Inicializar o registro e com o estado |0 t o operador qu o do 4 | = N | , onde N e antico que representa a ac a neur onio. 5 Aplicar o operador Eode que ir a alterar o estado do registro e para |1 t se os valores dos registradores o e d forem iguais. o inversa ao neur 6 Aplicar o operador com ac a onio para desemaranhar o estado 1 | , | = N | o da mem 7 Aplicar o algoritmo de recuperac a oria qu antica probabil sticacom entrada |1 t no registrador e. 8 Medir o registrador s para obter os par ametros desejados da rede.

o, poder desta vantagem, o algoritmo probabil stico baseado na superposic a a gerar redes neurais com baixo desempenho, no entanto este algoritmo poder a ser utilizado com o de algoritmos evolucion o de comit eci encia para a inicializac a arios ou para criac a es de classicadores.

5. Conclus ao
Diversos modelos de redes neurais j a foram propostos, mas todos os modelos de redes neurais qu anticas analisados neste trabalho possuem problemas quanto aos postulados o neural. A busca por um da mec anica qu antica ou quanto aos princ pios da computac a modelo que preserve a linearidade e a unitariedade dos operadores qu anticos, que seja o de um modelo cl uma generalizac a assico onde os algoritmos de treinamentos cl assicos ainda possam ser utilizados e que possua um algoritmo qu antico que supere os algoritmos um problema em aberto. cl assicos ainda e Um caminho para o desenvolvimento de um modelo com as caracter sticas cita a utilizac o de m das e a etodos que ampliquem a amplitude de um estado desejado sem o de um or o do a utilizac a aculo. Neste artigo esta id eia foi utilizada atrav es da utilizac a o de uma mem algoritmo de recuperac a oria qu antica probabil stica. O algoritmo proba um algoritmo baseado na superposic o, com ganho exponencial bil stico superposto e a o que utilizam o algoritmo de quando comparado aos algoritmos baseados na superposic a Grover e que n ao utiliza operadores n ao lineares ou n ao unit arios como a grande maioria de algoritmos de aprendizado para redes neurais. o dos modelos neurais, e comit A an alise da capacidade de generalizac a es, treinados com o algoritmo 3 e o desempenho de algoritmos evolucion arios utilizando o algo o s ritmo 3 para inicializac a ao alguns dos poss veis trabalhos futuros. Esta an alise poder a ser realizada utilizando os diversos modelos de redes neurais qu anticas propostos at eo momento, pois a eci encia do algoritmo pode estar associada com o modelo utilizado para a an alise.

Agradecimentos
` FACEPE pelo nanciamento que permite a realizac o desta pesquisa. Ao CNPQ e a a

Refer encias
Abrams, D. S. and Lloyd, S. (1998). Nonlinear quantum mechanics implies polynomialtime solution for np-complete and p problems. Phys. Rev. Lett., 81(18):39923995. Altaisky, M. V. (2001). Quantum neural network. Technical report, Joint Institute for Nuclear Research, Russia. Available online at the Quantum Physics repository arXiv: quant-ph/0107012v2. Feynman, R. (1982). Simulating physics with computers. International Journal of Theoretical Physics, 21:467. Grover, L. K. (1996). A fast quantum mechanical algorithm for database search. Kak, S. C. (1995). On quantum neural computing. Information Sciences, 83(3):143160. Nielsen, M. A. and Chuang, I. L. (2000). Quantum Computation and Quantum Information. Cambridge University Press. Oliveira, W., Silva, A., Ludermir, T., Leonel, A., Galindo, W., and Pereira, J. (2008). Quantum logical neural networks. In Neural Networks, 2008. SBRN 08. 10th Brazilian Symposium on, pages 147 152. Panella, M. and Martinelli, G. (2009a). Neural networks with quantum architecture and quantum learning. International Journal of Circuit Theory and Applications. Panella, M. and Martinelli, G. (2009b). Neurofuzzy networks with nonlinear quantum learning. Fuzzy Systems, IEEE Transactions on, 17(3):698 710. Ricks, B. and Ventura, D. (2004). Training a quantum neural network. In Thrun, S., Saul, L., and Sch olkopf, B., editors, Advances in Neural Information Processing Systems 16. MIT Press, Cambridge, MA. Shor, P. W. (1997). Polynomial-time algorithms for prime factorization and discrete logarithms on a quantum computer. SIAM Journal on Computing, 26(5):14841509. Silva, A., Ludermir, T., and Oliveira, W. (2010). Superposition based learning algorithm. In Neural Networks, 2010. SBRN 10. 11th Brazilian Symposium on. Trugenberger, C. A. (2002). Quantum pattern recognition. Quantum Information Processing, 1:471493. 10.1023/A:1024022632303. Ventura, D. and Martinez, T. (1999). Initializing the amplitude distribution of a quantum state. Foundations of Physics Letters, 12(6):547559. Zhou, R. and Ding, Q. (2007). Quantum m-p neural network. Int J Theor Phys, 46:3209 3215.

Potrebbero piacerti anche