Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original
UNIVERSIDADE FEDERAL DO RIO GRANDE DO SUL INSTITUTO DE INFORMÁTICA PROGRAMA DE PÓS-GRADUAÇÃO EM COMPUTAÇÃO GUILHERME GOETTEMS SCHNEIDER Arquitetura de Computadores Quânticos Arquiteturas Especiais de Computadores Prof. Philippe Olivier Alexandre Navaux Porto Alegre, outubro de 2005 SUMÁRIO Sumário ......................................................................................................................... 2 1 Introdução ................................................................................................................... 3 2 Histórico ...................................................................................................................... 3 3 Princípios da computação quântica ............................................................................. 4 4 Aplicações ................................................................................................................... 6 5 Arquiteturas ................................................................................................................. 6 6 Dificuldades ................................................................................................................ 6 7 Conclusão .................................................................................................................... 7 Bibliografia ................................................................................................................... 8 1INTRODUÇÃO Este trabalho apresenta um histórico da evolução dos microprocessadores e uma visão geral sobre computação quântica. Serão destacadas as principais características que diferenciam a computação tradicional e a computação quântica. Por fim, serão comentadas as principais dificuldades tecnológicas enfrentadas na construção de computadores quânticos e algumas pesquisas nesta área. 2HISTÓRICO Em 1965 Gordon Moore, co-fundador da Intel, uma das principais fabricantes de microprocessadores, fez uma previsão que se tornou famosa sendo conhecida como Lei de Moore [1]. Segundo ele, o número de transistores de um microprocessador dobraria em intervalos de tempo aproximadamente constantes, entre um e três anos. Isto significa um avanço exponencial na evolução do processamento das máquinas. Incrivelmente, verificou-se que a lei foi válida desde então até os dias atuais, período no qual foi observado que o poder de processamento duplicou aproximadamente a cada 18 meses. A figura Figura 2.1 [2] mostra a evolução dos processadores da família Intel desde 1970. Figura 2.1: Lei de Moore [2] Apesar da espantosa evolução registrada nas últimas décadas, o princípio de funcionamento desses microprocessadores é o mesmo desde o início, sendo baseados na arquitetura de Von Neumann. Isto quer dizer que a forma de programá-los continua a mesma, assim como sua capacidade de resolução de problemas. Além disso, acredita-se a tecnologia utilizada na fabricação de transistores esteja chegando ao seu limite físico. Atualmente são pesquisados transistores de algumas dezenas de nanômetros, que correspondem apenas a alguns poucos átomos. Sendo assim, é fisicamente impossível ir muito além disto. Outro problema enfrentado são os fenômenos físicos observados em sistemas de escalas atômicas, chamados fenômenos quânticos, bem diferentes dos que são conhecidos pela física clássica. Estes “estranhos” comportamentos também impõem restrições ao avanço da atual tecnologia. Da idéia de justamente aproveitar essas características para fazer computação de um modo diferente surgiu, na década de 1980, a Computação Quântica [3], que ganhou força após a divulgação do algoritmo para fatoração de números utilizando princípios da computação quântica criado por Peter Shor em 1994. Este algoritmo demonstrou que computadores quânticos têm uma capacidade de computação incrível, pois foi possível reduzir a complexidade de um problema, cuja melhor solução conhecida em máquinas de Von Neumann é exponencial, para um algoritmo de tempo polinomial em uma máquina quântica. 3PRINCÍPIOS DA COMPUTAÇÃO QUÂNTICA O modelo clássico de computador utiliza como elemento básico de informação o bit, que pode estar desligado, representado pelo estado 0 (zero), ou ligado, representado pelo estado 1 (um). A computação quântica introduz o conceito de qubit (bit quântico), que além dos dois estados tradicionais de um bit pode estar num estado de superposição coerente de ambos. É como se ele estivesse nos dois estados ao mesmo tempo ou como se houvesse dois universos paralelos e em cada um o qubit assumisse um dos estados tradicionais. Dois qubits possibilitariam realizar computação em quatro universos paralelos, três em oito e assim por diante, como mostra a Figura 2.1, onde Q representa um bit no estado de superposição. Figura 3.2: Qubits [3] Uma experiência que demonstra os princípios quânticos que inspiram este novo modelo de computação será descrita a seguir [4,5]. Um fóton, partícula de energia indivisível, é emitido em direção a um espelho semi-prateado, que reflete metade da luz que é emitida sobre ele e deixa passar a outra metade. Tratando-se de apenas um fóton, ele deveria seguir apenas um dos caminhos possíveis, sendo detectado por um dos detectores, como mostra a Figura 3.3, sendo exatamente isso que se observa na prática. Porém, no arranjo mostrado pela Figura 3.4, onde são dispostos dois espelhos semi-prateados e dois espelhos prateados, o fóton chega sempre no detector 1. A física quântica explica que na realidade é como se o fóton viajasse simultaneamente pelos dois caminhos mostrados pela figura, e no momento em que eles se encontram no segundo espelho semi-prateado ocorre uma interferência que faz com que o fóton chegue sempre no detector 1. O mais curioso é que quando se adiciona um bloqueio num dos caminhos (Figura 3.5) o fóton volta a ser detectado pelos dois detectores com a mesma probabilidade, exatamente como ocorre no experimento da Figura 3.3. Enquanto o fóton está percorrendo duas trajetórias, dizemos que ele está no estado de superposição. Quando a medição é feita, dizemos que ocorre a decoerência, que no caso dos qubits é quando assume um dos valores binários normais (0 ou 1). Figura 3.3: Experimento (a) [4] Figura 3.4: Experimento (b) [4] Figura 3.5: Experimento (c) [4] 4APLICAÇÕES A computação quântica permite que sejam criados algoritmos para resolução de certos problemas com uma menor complexidade do que os algoritmos conhecidos para computação clássica. Em 1994 Peter Shor desenvolveu um algoritmo capaz de fatorar números teoricamente de maneira eficiente. O problema da fatoração é classificado como intratável em computadores clássicos (NP), pois o tempo de execução aumenta exponencialmente em relação ao tamanho do problema. Porém, utilizando o poder do paralelismo quântico ele pode ser resolvido de maneira eficiente (em tempo polinomial). Se fosse construída uma máquina capaz de executar este algoritmo com números grandes, ela seria capaz de quebrar sistemas criptográficos largamente utilizados atualmente. A computação quântica poderia ajudar também a simular experimentos da física quântica, o que poderia ajudar inclusive na sua própria evolução. Outra área onde a computação quântica poderia ser muito aplicada é a da Inteligência Artificial. Há quem diga que o cérebro humano, sendo composto por átomos e moléculas sendo regidos pelas leis da física quântica, poderia ser simulado por um computador quântico. Já outros pensam que ainda pode haver coisas mais complexas que a física quântica e que ainda desconhecemos. 5ARQUITETURAS Computadores quânticos devem ser construídos com os menores elementos da matéria e energia. Sua estrutura básica de computação é formada por elétrons, fótons e até pelo spin do núcleo atômico. Em 2001 a IMB demonstrou um computador quântico de 7 qubits, no qual foi executado o algoritmo de Shor para fatorar o número 15. O computador é formado por uma única molécula que possui 7 átomos cujos estados são determinados pelos spins de seus núcleos. Para manipular esses átomos e fazer a computação é utilizado um sistema de ressonância magnética nuclear, ou NMR (Nuclear Magnetic Resonance). Para que a molécula fique estável e se possa realizar a computação é necessário que o sistema fique resfriado próximo ao zero absoluto. O problema desta técnica é que todos os qubits devem pertencer a uma mesma molécula e torna-se muito difícil a construção e manipulação de moléculas maiores. São pesquisadas alternativas para construção de computadores quânticos como o uso de pontos quânticos (quantum dots), que são spins de elétrons confinados em nanoestruturas semicondutoras. Os pontos quânticos são utilizados para formar células quânticas que podem ser combinadas para formar as portas lógicas. Assim, espera-se poder construir sistemas com maior escalabilidade. 6DIFICULDADES Os mesmos princípios que dão este poder à computação quântica criam problemas que a torna muito difícil de tratar. Quando um qubit está no estado de coerência e sofre qualquer interação com o ambiente ele sofre uma decoerência e volta para um dos estados tradicionais (0 ou 1). Na prática, observa-se que a decoerência também ocorre após um certo período de tempo, o que impede computações muito extensas. Por isso, faz-se necessário a utilização de técnicas de correção de erros. Porém é grande a dificuldade de se implementar essas técnicas visto que a simples leitura dos dados faz com que se perca o paralelismo da computação. Ainda assim, a teoria de correção de erros quânticos afirma que se o estado de superposição puder ser sustentado por um por um determinado tempo seria possível fazer computações tão longas quanto se queira [6]. A técnica de NMR foi a que mais chegou mais próximo deste limiar, por enquanto. 7CONCLUSÃO A computação quântica tem um potencial muito grande de revolucionar a resolução de problemas de alta complexidade na computação clássica. Porém, a dificuldade em lidar com estes fenômenos e principalmente conseguir uma arquitetura que seja escalável deixam ainda muita incerteza quanto ao sucesso destas máquinas. Grandes empresas, como a IBM, estão investindo em pesquisas nesta área e já criam os primeiros protótipos. Algoritmos para solução de problemas neste novo paradigma já estão sendo desenvolvidos e inclusive linguagens de programação estão sendo elaboradas. Resta saber se os problemas conseguirão ser solucionados, se é uma questão de investimento e tempo ou existem restrições físicas que impediriam na prática a criação de máquinas realmente capazes de superar as atuais. Se isto for realmente possível talvez existam co-processadores quânticos que em conjunto com processadores de silício formassem os computadores do futuro, capazes de fazer previsão de tempo com maior precisão e otimizar sistemas combinatórios. BIBLIOGRAFIA [1] Tuomi, Ilkka. The Lives and Death of Moore’s Law – http://www.firstmonday.org/issues/issue7_11/tuomi/ [2] Technology & Research at Intel. Moore’s Law, The Future – http://www.intel.com/technology/silicon/mooreslaw/ [3] Bone, Simon; Castro, Matias. A Brief History of Quantum Computing – http://www.doc.ic.ac.uk/~nd/surprise_97/journal/vol4/spb3/ [4] Barenco, A.; Ekert, A.; Sanpera, A.; Machiavello, C. A short introduction to quantum computation – http://www.qubit.org/library/intros/comp/comp.html [5] Revista Café Orbital. Computação Quântica: o que é isso? – http://www.on.br/revista_ed_anterior/maio_2004/conteudo/futuro/futuro.html [6] Maguire, Y.; Boyden, E.; Gershenfeld, N. Toward a table-top quantum computer – http://www.research.ibm.com/journal/sj/393/part3/maguire.html [7] Science Daily. IBM's Test-Tube Quantum Computer Makes History; First Demonstration Of Shor's Historic Factoring Algorithm – http://www.sciencedaily.com/releases/2001/12/011220081620.htm Sumário 1Introdução 2Histórico 3Princípios da computação quântica 4Aplicações 5Arquiteturas 6Dificuldades 7Conclusão Bibliografia