Generalización a pesar del sobreajuste en modelos de aprendizaje automático cuántico

Generalización a pesar del sobreajuste en modelos de aprendizaje automático cuántico

Nodo de origen: 3028699

Evan Peters1,2,3 y María Schuld4

1Departamento de Física, Universidad de Waterloo, Waterloo, ON, N2L 3G1, Canadá
2Instituto de Computación Cuántica, Waterloo, ON, N2L 3G1, Canadá
3Perimeter Institute for Theoretical Physics, Waterloo, Ontario, N2L 2Y5, Canadá
4Xanadu, Toronto, ON, M5G 2C8, Canadá

¿Encuentra este documento interesante o quiere discutirlo? Scite o deje un comentario en SciRate.

Resumen

El éxito generalizado de las redes neuronales profundas ha revelado una sorpresa en el aprendizaje automático clásico: los modelos muy complejos a menudo se generalizan bien y al mismo tiempo sobreajustan los datos de entrenamiento. Este fenómeno de sobreajuste benigno se ha estudiado para una variedad de modelos clásicos con el objetivo de comprender mejor los mecanismos detrás del aprendizaje profundo. Caracterizar el fenómeno en el contexto del aprendizaje automático cuántico también podría mejorar nuestra comprensión de la relación entre sobreajuste, sobreparametrización y generalización. En este trabajo, proporcionamos una caracterización del sobreajuste benigno en modelos cuánticos. Para hacer esto, derivamos el comportamiento de un modelo clásico de características de Fourier de interpolación para la regresión en señales ruidosas, y mostramos cómo una clase de modelos cuánticos exhibe características análogas, vinculando así la estructura de los circuitos cuánticos (como las operaciones de codificación de datos y preparación de estados). ) a la sobreparametrización y el sobreajuste en modelos cuánticos. Explicamos intuitivamente estas características de acuerdo con la capacidad del modelo cuántico para interpolar datos ruidosos con un comportamiento localmente "puntiagudo" y proporcionamos un ejemplo de demostración concreto de sobreajuste benigno.

► datos BibTeX

► referencias

[ 1 ] Michael A Nielsen. “Redes neuronales y aprendizaje profundo”. Prensa de determinación. (2015). URL: http://​/​neuralnetworksanddeeplearning.com/​.
http: / / neuralnetworksanddeeplearning.com/

[ 2 ] Stuart Geman, Elie Bienenstock y René Doursat. “Las redes neuronales y el dilema sesgo/varianza”. Computación neuronal. 4, 1–58 (1992).
https: / / doi.org/ 10.1162 / neco.1992.4.1.1

[ 3 ] Trevor Hastie, Robert Tibshirani, Jerome H Friedman y Jerome H Friedman. “Los elementos del aprendizaje estadístico: minería de datos, inferencia y predicción”. Volumen 2. Saltador. (2009).
https:/​/​doi.org/​10.1007/​978-0-387-84858-7

[ 4 ] Peter L. Bartlett, Andrea Montanari y Alexander Rakhlin. “Aprendizaje profundo: un punto de vista estadístico”. Acta Numérica 30, 87–201 (2021).
https: / / doi.org/ 10.1017 / S0962492921000027

[ 5 ] Mijaíl Belkin. “Encajar sin miedo: fenómenos matemáticos notables del aprendizaje profundo a través del prisma de la interpolación”. Acta Numérica 30, 203–248 (2021).

[ 6 ] Peter L. Bartlett, Philip M. Long, Gábor Lugosi y Alexander Tsigler. "Sobreajuste benigno en regresión lineal". Proc. Nacional. Acad. Ciencia. 117, 30063–30070 (2020).
https: / / doi.org/ 10.1073 / pnas.1907378117

[ 7 ] Mikhail Belkin, Daniel Hsu, Siyuan Ma y Soumik Mandal. "Conciliar la práctica moderna del aprendizaje automático y la clásica compensación entre sesgo y variación". Proc. Nacional. Acad. Ciencia. 116, 15849–15854 (2019).
https: / / doi.org/ 10.1073 / pnas.1903070116

[ 8 ] Mikhail Belkin, Alexander Rakhlin y Alexandre B. Tsybakov. "¿La interpolación de datos contradice la optimización estadística?". En Actas de investigación sobre aprendizaje automático. Volumen 89, páginas 1611-1619. PMLR (2019). URL: https://​/​proceedings.mlr.press/​v89/​belkin19a.html.
https://​/​proceedings.mlr.press/​v89/​belkin19a.html

[ 9 ] Vidya Muthukumar, Kailas Vodrahalli, Vignesh Subramanian y Anant Sahai. "Interpolación inofensiva de datos ruidosos en regresión". Revista IEEE sobre áreas seleccionadas de la teoría de la información 1, 67–83 (2020).
https: / / doi.org/ 10.1109 / ISIT.2019.8849614

[ 10 ] Vidya Muthukumar, Adhyyan Narang, Vignesh Subramanian, Mikhail Belkin, Daniel Hsu y Anant Sahai. “Clasificación versus regresión en regímenes sobreparametrizados: ¿Importa la función de pérdida?”. J. Mach. Aprender. Res. 22, 1–69 (2021). URL: http://​/​jmlr.org/​papers/​v22/​20-603.html.
http: / / jmlr.org/ papers / v22 ​​/ 20-603.html

[ 11 ] Yehuda Dar, Vidya Muthukumar y Richard G. Baraniuk. “¿Un adiós al equilibrio entre sesgo y variación? una visión general de la teoría del aprendizaje automático sobreparametrizado” (2021). arXiv:2109.02355.
arXiv: 2109.02355

[ 12 ] Marcello Benedetti, Erika Lloyd, Stefan Sack y Mattia Fiorentini. “Circuitos cuánticos parametrizados como modelos de aprendizaje automático”. Ciencia cuántica. Tecnología. 4, 043001 (2019).
https:/​/​doi.org/​10.1088/​2058-9565/​ab4eb5

[ 13 ] K. Mitarai, M. Negoro, M. Kitagawa y K. Fujii. “Aprendizaje de circuitos cuánticos”. física Rev. A 98, 032309 (2018).
https: / / doi.org/ 10.1103 / physreva.98.032309

[ 14 ] Maria Schuld, Ville Bergholm, Christian Gogolin, Josh Izaac y Nathan Killoran. “Evaluación de gradientes analíticos en hardware cuántico”. física Rev. A 99, 032331 (2019).
https: / / doi.org/ 10.1103 / physreva.99.032331

[ 15 ] María Schuld y Nathan Killoran. “Aprendizaje automático cuántico en espacios característicos de hilbert”. física Rev. Lett. 122, 040504 (2019).
https: / / doi.org/ 10.1103 / physrevlett.122.040504

[ 16 ] Vojtěch Havlíček, Antonio D. Córcoles, Kristan Temme, Aram W. Harrow, Abhinav Kandala, Jerry M. Chow y Jay M. Gambetta. “Aprendizaje supervisado con espacios de funciones mejorados cuánticamente”. Naturaleza 567, 209–212 (2019).
https:/​/​doi.org/​10.1038/​s41586-019-0980-2

[ 17 ] Seth Lloyd y Christian Weedbrook. “Aprendizaje contradictorio generativo cuántico”. Física. Rev. Lett. 121, 040502 (2018).
https: / / doi.org/ 10.1103 / physrevlett.121.040502

[ 18 ] Pierre-Luc Dallaire-Demers y Nathan Killoran. “Redes adversarias generativas cuánticas”. Física. Rev. A 98, 012324 (2018).
https: / / doi.org/ 10.1103 / physreva.98.012324

[ 19 ] Amira Abbas, David Sutter, Christa Zoufal, Aurelien Lucchi, Alessio Figalli y Stefan Woerner. "El poder de las redes neuronales cuánticas". Nat. Computadora. Ciencia. 1, 403–409 (2021).
https:/​/​doi.org/​10.1038/​s43588-021-00084-1

[ 20 ] Logan G. Wright y Peter L. McMahon. “La capacidad de las redes neuronales cuánticas”. En 2020 Conferencia sobre Láseres y Electroóptica (CLEO). Páginas 1–2. (2020). URL: https://​/​ieeexplore.ieee.org/​document/​9193529.
https: / / ieeexplore.ieee.org/ document / 9193529

[ 21 ] Sukin Sim, Peter D. Johnson y Alan Aspuru-Guzik. “Expresibilidad y capacidad de entrelazamiento de circuitos cuánticos parametrizados para algoritmos híbridos cuánticos-clásicos”. Adv. Tecnología Cuántica. 2, 1900070 (2019).
https: / / doi.org/ 10.1002 / qute.201900070

[ 22 ] Thomas Hubregtsen, Josef Pichlmeier, Patrick Stecher y Koen Bertels. “Evaluación de circuitos cuánticos parametrizados: sobre la relación entre precisión de clasificación, expresabilidad y capacidad de entrelazamiento”. Mach cuántico. Intel. 3, 1 (2021).
https: / / doi.org/ 10.1007 / s42484-021-00038-w

[ 23 ] Jarrod R McClean, Sergio Boixo, Vadim N Smelyanskiy, Ryan Babbush y Hartmut Neven. "Mesetas áridas en paisajes de entrenamiento de redes neuronales cuánticas". Nat. Comunitario. 9, 4812 (2018).
https:/​/​doi.org/​10.1038/​s41467-018-07090-4

[ 24 ] Marco Cerezo, Akira Sone, Tyler Volkoff, Lukasz Cincio y Patrick J Coles. "Mesetas estériles dependientes de la función de costos en circuitos cuánticos parametrizados poco profundos". Nat. Comunitario. 12, 1791 (2021).
https: / / doi.org/ 10.1038 / s41467-021-21728-w

[ 25 ] Matthias C. Caro, Elies Gil-Fuster, Johannes Jakob Meyer, Jens Eisert y Ryan Sweke. "Límites de generalización dependientes de la codificación para circuitos cuánticos parametrizados". Cuántico 5, 582 (2021).
https:/​/​doi.org/​10.22331/​q-2021-11-17-582

[ 26 ] Hsin-Yuan Huang, Michael Broughton, Masoud Mohseni, Ryan Babbush, Sergio Boixo, Hartmut Neven y Jarrod R McClean. “El poder de los datos en el aprendizaje automático cuántico”. Nat. Comunitario. 12, 2631 (2021).
https:/​/​doi.org/​10.1038/​s41467-021-22539-9

[ 27 ] Matthias C. Caro, Hsin-Yuan Huang, M. Cerezo, Kunal Sharma, Andrew Sornborger, Lukasz Cincio y Patrick J. Coles. "Generalización del aprendizaje automático cuántico a partir de pocos datos de entrenamiento". Nat. Comunitario. 13, 4919 (2022).
https:/​/​doi.org/​10.1038/​s41467-022-32550-3

[ 28 ] Leonardo Banchi, Jason Pereira y Stefano Pirandola. "Generalización del aprendizaje automático cuántico: un punto de vista de la información cuántica". PRX Cuántico 2, 040321 (2021).
https: / / doi.org/ 10.1103 / PRXQuantum.2.040321

[ 29 ] Francisco Javier Gil Vidal y Dirk Oliver Theis. “Redundancia de entrada para circuitos cuánticos parametrizados”. Frente. física 8, 297 (2020).
https: / / doi.org/ 10.3389 / fphy.2020.00297

[ 30 ] Maria Schuld, Ryan Sweke y Johannes Jakob Meyer. “Efecto de la codificación de datos en el poder expresivo de los modelos de aprendizaje automático cuántico variacional”. física Rev. A 103, 032430 (2021).
https: / / doi.org/ 10.1103 / physreva.103.032430

[ 31 ] David Wierichs, Josh Izaac, Cody Wang y Cedric Yen-Yu Lin. "Reglas generales de cambio de parámetros para gradientes cuánticos". Cuántico 6, 677 (2022).
https:/​/​doi.org/​10.22331/​q-2022-03-30-677

[ 32 ] Kendall E. Atkinson. “Una introducción al análisis numérico”. John Wiley e hijos. (2008).

[ 33 ] Ali Rahimi y Benjamín Recht. "Funciones aleatorias para máquinas kernel a gran escala". En Avances en sistemas de procesamiento de información neuronal. Volumen 20. (2007). URL: https://​/​papers.nips.cc/​paper_files/​paper/​2007/​hash/​013a006f03dbc5392effeb8f18fda755-Abstract.html.
https:/​/​papers.nips.cc/​paper_files/​paper/​2007/​hash/​013a006f03dbc5392effeb8f18fda755-Abstract.html

[ 34 ] Walter Rudin. “Los teoremas básicos del análisis de Fourier”. John Wiley e hijos, Ltd. (1990).
https: / / doi.org/ 10.1002 / 9781118165621.ch1

[ 35 ] Song Mei y Andrea Montanari. “El error de generalización de la regresión de características aleatorias: asintóticas precisas y la curva de doble descenso”. Comunitario. Pura aplicación. Matemáticas. 75, 667–766 (2022).
https: / / doi.org/ 10.1002 / cpa.22008

[ 36 ] Trevor Hastie, Andrea Montanari, Saharon Rosset y Ryan J. Tibshirani. "Sorpresas en la interpolación de mínimos cuadrados sin crestas de alta dimensión". Ana. Estadística. 50, 949 – 986 (2022).
https: / / doi.org/ 10.1214 / 21-AOS2133

[ 37 ] Tengyuan Liang, Alexander Rakhlin y Xiyu Zhai. "Sobre el descenso múltiple de interpolantes de norma mínima y la isometría inferior restringida de los núcleos". En Actas de investigación sobre aprendizaje automático. Volumen 125, páginas 1 a 29. PMLR (2020). URL: http://​/​proceedings.mlr.press/​v125/​liang20a.html.
http://​/​proceedings.mlr.press/​v125/​liang20a.html

[ 38 ] Edward Farhi y Hartmut Neven. “Clasificación con redes neuronales cuánticas en procesadores a corto plazo” (2018). arXiv:1802.06002.
arXiv: 1802.06002

[ 39 ] María Schuld, Alex Bocharov, Krysta M. Svore y Nathan Wiebe. "Clasificadores cuánticos centrados en circuitos". Física. Rev. A 101, 032308 (2020).
https: / / doi.org/ 10.1103 / physreva.101.032308

[ 40 ] Adrián Pérez-Salinas, Alba Cervera-Lierta, Elies Gil-Fuster y José I. Latorre. “Recarga de datos para un clasificador cuántico universal”. Cuántica 4, 226 (2020).
https:/​/​doi.org/​10.22331/​q-2020-02-06-226

[ 41 ] Sofiene Jerbi, Lukas J Fiderer, Hendrik Poulsen Nautrup, Jonas M Kübler, Hans J Briegel y Vedran Dunjko. "Aprendizaje automático cuántico más allá de los métodos del kernel". Nat. Comunitario. 14, 517 (2023).
https: / / doi.org/ 10.1038 / s41467-023-36159-y

[ 42 ] Casper Gyurik, Dyon Vreumingen, van y Vedran Dunjko. “Minimización del riesgo estructural para clasificadores lineales cuánticos”. Cuántico 7, 893 (2023).
https:/​/​doi.org/​10.22331/​q-2023-01-13-893

[ 43 ] María Schuld. “Los modelos de aprendizaje automático cuántico supervisados ​​son métodos kernel” (2021). arXiv:2101.11020.
arXiv: 2101.11020

[ 44 ] S. Shin, Y. S. Teo y H. Jeong. "Codificación de datos exponencial para el aprendizaje supervisado cuántico". Física. Rev. A 107, 012422 (2023).
https: / / doi.org/ 10.1103 / PhysRevA.107.012422

[ 45 ] Sofía Piccard. “Sur les ensembles de distancias des conjuntos de puntos de un espacio euclidiano”. Memorias de la Universidad de Neuchatel. Secretaría de la Universidad. (1939).

[ 46 ] Dave Wecker, Matthew B. Hastings, Nathan Wiebe, Bryan K. Clark, Chetan Nayak y Matthias Troyer. "Resolución de modelos de electrones fuertemente correlacionados en una computadora cuántica". Física. Rev. A 92, 062318 (2015).
https: / / doi.org/ 10.1103 / PhysRevA.92.062318

[ 47 ] Ian D. Kivlichan, Jarrod McClean, Nathan Wiebe, Craig Gidney, Alán Aspuru-Guzik, Garnet Kin-Lic Chan y Ryan Babbush. “Simulación cuántica de estructura electrónica con profundidad lineal y conectividad”. física Rev. Lett. 120, 110501 (2018).
https: / / doi.org/ 10.1103 / PhysRevLett.120.110501

[ 48 ] Martín Larocca, Frédéric Sauvage, Faris M. Sbahi, Guillaume Verdon, Patrick J. Coles y M. Cerezo. "Aprendizaje automático cuántico invariante de grupo". PRX Cuántico 3, 030341 (2022).
https: / / doi.org/ 10.1103 / PRXQuantum.3.030341

[ 49 ] Johannes Jakob Meyer, Marian Mularski, Elies Gil-Fuster, Antonio Anna Mele, Francesco Arzani, Alissa Wilms y Jens Eisert. “Explotando la simetría en el aprendizaje automático cuántico variacional”. PRX Quantum 4, 010328 (2023).
https: / / doi.org/ 10.1103 / PRXQuantum.4.010328

[ 50 ] Martín Larocca, Nathan Ju, Diego García-Martín, Patrick J Coles y Marco Cerezo. “Teoría de la sobreparametrización en redes neuronales cuánticas”. Nat. Computadora. Ciencia. 3, 542–551 (2023).
https:/​/​doi.org/​10.1038/​s43588-023-00467-6

[ 51 ] Yuxuan Du, Min-Hsiu Hsieh, Tongliang Liu y Dacheng Tao. “Poder expresivo de circuitos cuánticos parametrizados”. Física. Rev. Res. 2, 033125 (2020).
https: / / doi.org/ 10.1103 / physrevresearch.2.033125

[ 52 ] Zoë Holmes, Kunal Sharma, M. Cerezo y Patrick J. Coles. “Conectando la expresibilidad de ansatz con magnitudes de gradiente y mesetas estériles”. PRX Quantum 3, 010313 (2022).
https: / / doi.org/ 10.1103 / PRXQuantum.3.010313

[ 53 ] Samson Wang, Enrico Fontana, Marco Cerezo, Kunal Sharma, Akira Sone, Lukasz Cincio y Patrick J Coles. "Mesetas estériles inducidas por ruido en algoritmos cuánticos variacionales". Nat. Comunitario. 12, 6961 (2021).
https:/​/​doi.org/​10.1038/​s41467-021-27045-6

[ 54 ] Abdulkadir Canatar, Evan Peters, Cengiz Pehlevan, Stefan M. Wild y Ruslan Shaydulin. "El ancho de banda permite la generalización en modelos de núcleo cuántico". Transacciones sobre investigación en aprendizaje automático (2023). URL: https://​/​openreview.net/​forum?id=A1N2qp4yAq.
https://​/​openreview.net/​forum?id=A1N2qp4yAq

[ 55 ] Hsin-Yuan Huang, Michael Broughton, Jordan Cotler, Sitan Chen, Jerry Li, Masoud Mohseni, Hartmut Neven, Ryan Babbush, Richard Kueng, John Preskill y Jarrod R. McClean. "Ventaja cuántica al aprender de los experimentos". Ciencia 376, 1182–1186 (2022).
https:/​/​doi.org/​10.1126/​science.abn7293

[ 56 ] Sitan Chen, Jordan Cotler, Hsin-Yuan Huang y Jerry Li. “Separaciones exponenciales entre aprendizaje con y sin memoria cuántica”. En 2021, 62º Simposio Anual del IEEE sobre Fundamentos de la Informática (FOCS). Páginas 574–585. (2022).
https: / / doi.org/ 10.1109 / FOCS52979.2021.00063

[ 57 ] Hsin-Yuan Huang, Richard Kueng y John Preskill. “Límites teóricos de la información sobre la ventaja cuántica en el aprendizaje automático”. física Rev. Lett. 126, 190505 (2021).
https: / / doi.org/ 10.1103 / PhysRevLett.126.190505

[ 58 ] Ville Bergholm, Josh Izaac, Maria Schuld, Christian Gogolin, M. Sohaib Alam, Shahnawaz Ahmed, Juan Miguel Arrazola, Carsten Blank, Alain Delgado, Soran Jahangiri, Keri McKiernan, Johannes Jakob Meyer, Zeyue Niu, Antal Száva y Nathan Killoran. “Pennylane: diferenciación automática de cálculos híbridos cuánticos-clásicos” (2018). arXiv:1811.04968.
arXiv: 1811.04968

[ 59 ] Peter L. Bartlett, Philip M. Long, Gábor Lugosi y Alexander Tsigler. "Sobreajuste benigno en regresión lineal". Proc. Nacional. Acad. Ciencia. 117, 30063–30070 (2020).
https: / / doi.org/ 10.1073 / pnas.1907378117

[ 60 ] Vladimir Koltchinski y Karim Lounici. “Desigualdades de concentración y límites de momento para operadores de covarianza muestrales”. Bernoulli 23, 110 – 133 (2017).
https://​/​doi.org/​10.3150/​15-BEJ730

[ 61 ] Zbigniew Puchała y Jarosław Adam Miszczak. “Integración simbólica respecto de la medida haar sobre el grupo unitario”. Toro. Pol. Acad. Ciencia. 65, 21-27 (2017).
https: / / doi.org/ 10.1515 / bpasts-2017-0003

[ 62 ] Daniel A. Roberts y Beni Yoshida. “Caos y complejidad por diseño”. J. Física de alta energía. 2017, 121 (2017).
https: / / doi.org/ 10.1007 / jhep04 (2017) 121

[ 63 ] Wallace C. Babcock. “Interferencias de intermodulación en sistemas radioeléctricos, frecuencia de aparición y control por selección de canal”. Sistema de campana. tecnología. j. 32, 63–73 (1953).
https: / / doi.org/ 10.1002 / j.1538-7305.1953.tb01422.x

[ 64 ] M. Atkinson, N. Santoro y J. Urrutia. "Conjuntos de números enteros con sumas y diferencias distintas y asignaciones de frecuencia portadora para repetidores no lineales". Traducción IEEE. Comunitario. 34, 614–617 (1986).
https: / / doi.org/ 10.1109 / TCOM.1986.1096587

[ 65 ] J. Robinson y A. Bernstein. "Una clase de códigos binarios recurrentes con propagación de errores limitada". Traducción IEEE. inf. 13, 106-113 (1967).
https: / / doi.org/ 10.1109 / TIT.1967.1053951

[ 66 ] R. J. F. Fang y W. A. ​​Sandrin. “Asignación de frecuencia portadora para repetidores no lineales”. Revisión técnica de COMSAT 7, 227–245 (1977).

Citado por

[1] Alexey Melnikov, Mohammad Kordzanganeh, Alexander Alodjants y Ray-Kuang Lee, “Aprendizaje automático cuántico: de la física a la ingeniería de software”, Avances en Física X 8 1, 2165452 (2023).

[2] Mo Kordzanganeh, Pavel Sekatski, Leonid Fedichkin y Alexey Melnikov, “Una familia de circuitos cuánticos universales en crecimiento exponencial”, Aprendizaje automático: ciencia y tecnología 4 3, 035036 (2023).

[3] Stefano Mangini, “Algoritmos cuánticos variacionales para el aprendizaje automático: teoría y aplicaciones”, arXiv: 2306.09984, (2023).

[4] Ben Jaderberg, Antonio A. Gentile, Youssef Achari Berrada, Elvira Shishenina y Vincent E. Elfving, "Dejemos que las redes neuronales cuánticas elijan sus propias frecuencias", arXiv: 2309.03279, (2023).

[5] Yuxuan Du, Yibo Yang, Dacheng Tao y Min-Hsiu Hsieh, “Poder dependiente del problema de las redes neuronales cuánticas en la clasificación multiclase”, Cartas de revisión física 131 14, 140601 (2023).

[6] S. Shin, Y. S. Teo y H. Jeong, “Codificación de datos exponencial para el aprendizaje supervisado cuántico”, Revisión física A 107 1, 012422 (2023).

[7] Elies Gil-Fuster, Jens Eisert y Carlos Bravo-Prieto, “Comprender el aprendizaje automático cuántico también requiere repensar la generalización”, arXiv: 2306.13461, (2023).

[8] Jason Iaconis y Sonika Johri, “Carga de imágenes de datos cuánticos eficiente basada en redes tensoriales”, arXiv: 2310.05897, (2023).

[9] Alice Barthe y Adrián Pérez-Salinas, “Gradientes y perfiles de frecuencia de modelos de recarga cuántica”, arXiv: 2311.10822, (2023).

[10] Tobias Haug y M. S. Kim, “Generalización con geometría cuántica para aprender unitarios”, arXiv: 2303.13462, (2023).

[11] Jonas Landman, Slimane Thabet, Constantin Dalyac, Hela Mhiri y Elham Kashefi, “Aproximación clásica del aprendizaje automático cuántico variacional con características aleatorias de Fourier”, arXiv: 2210.13200, (2022).

[12] Berta Casas y Alba Cervera-Lierta, “Serie multidimensional de Fourier con circuitos cuánticos”, Revisión física A 107 6, 062612 (2023).

[13] Elies Gil-Fuster, Jens Eisert y Vedran Dunjko, "Sobre la expresividad de la incorporación de núcleos cuánticos", arXiv: 2309.14419, (2023).

[14] Lucas Slattery, Ruslan Shaydulin, Shouvanik Chakrabarti, Marco Pistoia, Sami Khairy y Stefan M. Wild, "Evidencia numérica contra la ventaja de los núcleos de fidelidad cuántica en datos clásicos", Revisión física A 107 6, 062417 (2023).

[15] Mo Kordzanganeh, Daria Kosichkina y Alexey Melnikov, “Redes híbridas paralelas: una interacción entre redes neuronales cuánticas y clásicas”, arXiv: 2303.03227, (2023).

[16] Aikaterini, Gratsea y Patrick Huembeli, “El efecto de los operadores de procesamiento y medición en el poder expresivo de los modelos cuánticos”, arXiv: 2211.03101, (2022).

[17] Shun Okumura y Masayuki Ohzeki, “Coeficiente de Fourier de circuitos cuánticos parametrizados y problema de meseta estéril”, arXiv: 2309.06740, (2023).

[18] Massimiliano Incudini, Michele Grossi, Antonio Mandarino, Sofia Vallecorsa, Alessandra Di Pierro y David Windridge, “The Quantum Path Kernel: a Generalized Quantum Neural Tangent Kernel for Deep Quantum Machine Learning”, arXiv: 2212.11826, (2022).

[19] Jorja J. Kirk, Matthew D. Jackson, Daniel J. M. King, Philip Intallura y Mekena Metcalf, “Orden emergente en representaciones de datos clásicas en modelos de espín de Ising”, arXiv: 2303.01461, (2023).

[20] Francesco Scala, Andrea Ceschini, Massimo Panella y Dario Gerace, "Un enfoque general para la deserción en redes neuronales cuánticas", arXiv: 2310.04120, (2023).

[21] Julian Berberich, Daniel Fink, Daniel Pranjić, Christian Tutschku y Christian Holm, “Entrenamiento de modelos cuánticos robustos y generalizables”, arXiv: 2311.11871, (2023).

Las citas anteriores son de ANUNCIOS SAO / NASA (última actualización exitosa 2023-12-21 00:40:54). La lista puede estar incompleta ya que no todos los editores proporcionan datos de citas adecuados y completos.

On Servicio citado por Crossref no se encontraron datos sobre las obras citadas (último intento 2023-12-21 00:40:53).

Sello de tiempo:

Mas de Diario cuántico