양자컴퓨터의 큐비트라는 개념은 잘못된 이론을 근거로 만들었기 때문인데,
중첩상태라는것도 사실 양자역학적으로 이해할수없는 물리적 현상을 수식화 한것이고,
중첩 상태라는것이 증명된것이 아니고 하나의 관점이라고 볼수있지.
확인하기 전까지 값을 알수 없다는것은 확인할때 값이 결정된다는것을 의미하는거야.
이중슬릿은 빛이 슬릿에 닿아 반사되면서 파동성을 가지는데,
관측되어야만 값을 확정 할수있기 때문에, 이런 개념이 파생된거지.
관측기를 가져다가 놓아도, 왜 파동성이 사라지지 않았는가,
그 이유는 관측을 했을때, 파동성이 사라진다는것이지,
관측기를 가져다 놓는다고 해서 값이 결정되는게 아니기 때문이지.
관측하려면 빛이 관측기 렌즈에 닿아야 하는데, 닿지 않아서 관측을못하기 때문이야.
그래서 그런 잘못된 이론으로 컴퓨터를 만드닌깐 오류가 심해지겠지.
계산 값의 오류가 생긴다는거야.
그런데 왜 큐비트가 성능이 높은걸까?
그건 한번에 처리할수있는 비트의 단위가 높아졌기 때문이야.
현재 컴퓨터는 32비트와 64비트 컴퓨터인데,
8비트가 1바이트이기 때문에, 64비트 싱글 코어 cpu는 클럭 1회당 8바이트식 처리할수있어.
듀얼 코어는 한번에 16바이트, 쿼드 코어는 32바이트, 헥사 코어는 48바이트, 옥타 코어는 64바이트,
그러면 2의 6승인 64비트 컴퓨터인데,
2의 10승인 1024비트 컴퓨터가 만들어지게 되면 싱클 코어 cpu 클럭 1회당 128바이트를 처리할수있어.
2의 20승인 1,048,576비트 컴퓨터가 만들어지게 되면 싱클 코어 cpu 클럭 1회당 131,072바이트를 처리할수있어.
더블 코어면 262,144바이트를 처리할수있고, 쿼드코어면 524,288바이트를 처리할수있지.
2의 50승 비트 컴퓨터가 나오게 되면 1,125,899,906,842,624비트 컴퓨터가 만들어지고,
1클럭당 싱클 코어 cpu가 140,737,488,355,328비트를 처리할수있어.
슈퍼컴퓨터는 64비트이기 때문에, 이렇게 비트를 높이게 되면 한번에 처리 단위가 높아져서,
슈퍼 컴퓨터가 100년이 걸리는것도 단 1초만에 한번에 계산할수있는거야.
양자 컴퓨터의 가장 큰 문제는 중첩상태라는 개념이 오차를 만들어서, 값이 틀려지는거고,
실제 성능이 높아지는것은 비트의 단위를 높여서, 한번에 처리 할수있는 대역폭을 늘린것에 불과하다는거지