La naturaleza selecciona 10 proyectos de códigos informáticos que están cambiando la ciencia.
En 2019, el equipo del Event Horizon Telescope permitió al mundo ver un agujero negro por primera vez. Sin embargo, la imagen del objeto brillante en forma de anillo publicada por los investigadores no es una imagen tradicional, sino que se obtuvo mediante cálculos. Utilizando datos de radiotelescopios de Estados Unidos, México, Chile, España y la Antártida, los investigadores realizaron transformaciones matemáticas para sintetizar la imagen icónica. El equipo de investigación también publicó el código de programación utilizado para lograr la hazaña y escribió un artículo que documenta el descubrimiento, que otros investigadores pueden aprovechar para realizar más análisis.
Este modelo es cada vez más común. Desde la astronomía hasta la zoología, detrás de cada descubrimiento científico importante de los tiempos modernos están involucradas las computadoras. Michael Levitt, biólogo computacional de la Universidad de Stanford en Estados Unidos, compartió el Premio Nobel de Química 2013 con otros dos investigadores por "crear modelos multiescala de sistemas químicos complejos". Señaló que las computadoras portátiles actuales tienen 10.000 veces más memoria y velocidades de reloj que las computadoras construidas en su laboratorio cuando comenzó a ganar el premio en 1967. "Hoy en día tenemos una potencia informática considerable", afirmó. "El problema es que todavía tenemos que pensar".
Una computadora, por poderosa que sea, es inútil sin un software que pueda resolver el problema de investigación y sin investigadores que sepan cómo escribir y utilizar el software. La investigación científica actual ha estado fundamentalmente ligada al software informático, y el software informático ha penetrado en todos los aspectos del trabajo de investigación. Recientemente, la revista "Nature" centró su atención entre bastidores, centrándose en los códigos informáticos clave que han cambiado la investigación científica en las últimas décadas, y enumeró 10 proyectos informáticos clave.
Esta computadora CDC 3600 fue entregada al Centro Nacional de Investigación Atmosférica en Boulder, Colorado, en 1963, y fue programada por investigadores con la ayuda de un compilador Fortran.
Pionero del lenguaje: Fortran Compiler (1957)
La primera computadora moderna no era fácil de manejar. La programación en ese momento se lograba conectando manualmente cables en filas de circuitos. Posteriormente aparecieron el lenguaje máquina y el lenguaje ensamblador, que permitieron a los usuarios programar computadoras con códigos. Sin embargo, ambos lenguajes requieren un conocimiento profundo de la arquitectura informática, lo que hace que sea difícil dominarlos para muchos científicos.
Esto cambió en la década de 1950 con el desarrollo de los lenguajes simbólicos, particularmente Fortran, un lenguaje de traducción de fórmulas desarrollado por John Balks y su equipo en IBM en San José, California. Con Fortran, los usuarios pueden programar con instrucciones legibles por humanos, como x = 3+5. Luego, el compilador convierte estas instrucciones en código de máquina rápido y eficiente.
Sin embargo, este proceso aún no es sencillo. Los primeros programadores usaban tarjetas perforadas para ingresar código, y las simulaciones complejas podían requerir decenas de miles de tarjetas perforadas. Aún así, Syukuro Manabe, climatólogo de la Universidad de Princeton en Nueva Jersey, señala que Fortran hace que la programación sea accesible para científicos no informáticos. "Es la primera vez que podemos programar un ordenador nosotros mismos". El modelo climático que él y sus colegas desarrollaron utilizando este lenguaje fue uno de los primeros modelos exitosos.
Fortran se ha desarrollado en su octava década y todavía se usa ampliamente en modelado climático, mecánica de fluidos, química computacional y otras disciplinas. Todas estas disciplinas involucran álgebra lineal compleja y requieren computadoras potentes para procesar números con rapidez. Fortran genera código rápidamente y todavía hay muchos programadores que saben cómo escribirlo. La antigua base del código Fortran todavía está activa en laboratorios y supercomputadoras de todo el mundo. "Los programadores anteriores sabían lo que estaban haciendo", dijo Frank Giraldo, matemático aplicado y modelador climático del Instituto Naval de Estados Unidos. "Son muy memorizables porque tienen muy mala memoria".
Procesador de señales: transformada rápida de Fourier (1965)
A medida que los radioastrónomos escanean el cielo, capturan imágenes aleatorias que varían en el tiempo. Ruido de señal complejo. Para comprender la naturaleza de estas ondas de radio, necesitaban ver cómo se veían estas señales en función de la frecuencia.
Un proceso matemático llamado "transformada de Fourier" puede ayudar a los investigadores, pero es ineficiente. Para un conjunto de datos de tamaño n, se requieren n 2 cálculos.
En 1965, los matemáticos estadounidenses James Cooley y John Darke descubrieron una manera de acelerar este proceso. La Transformada Rápida de Fourier (FFT) reduce el problema de calcular la Transformada de Fourier a N log2 (N) pasos mediante recursividad (un método de programación que resuelve un problema dividiéndolo repetidamente en subproblemas similares). A medida que n aumenta, la velocidad también aumenta. Para 1.000 puntos, el aumento de velocidad es aproximadamente 100 veces; 10.000 puntos es 50.000 veces.
Este "descubrimiento" es en realidad un redescubrimiento, porque el matemático alemán Gauss lo estudió en 1805, pero nunca lo publicó. James Cooley y John Darke lo hicieron. Abrieron la aplicación de la transformada de Fourier en el procesamiento de señales digitales, análisis de imágenes, biología estructural y otros campos, convirtiéndose en uno de los principales acontecimientos en los campos de las matemáticas aplicadas y la ingeniería. FFT se ha utilizado muchas veces en el código. En los últimos años, un esquema popular es FFTW, que se considera el FFT más rápido del mundo.
Paul Adams, presidente del Departamento de Biofísica Molecular y Bioimagen Integrada del Laboratorio Nacional Lawrence Berkeley en California, recordó que cuando estaba mejorando las estructuras de geles de proteínas bacterianas en 1995, incluso usando FFT y Supercomputadoras, también, Se necesitarían "muchas horas o incluso días" para calcularlo. "Si estuviera intentando hacer esto sin FFT, no sé cómo hacerlo en la realidad", dijo. "Puede que lleve mucho tiempo".
Cataloging Molecular: Biological Database (1965)
Las bases de datos son tan integrales para la investigación científica actual que es fácil olvidar que también funcionan por software impulsado. En las últimas décadas, el tamaño de los recursos de las bases de datos se ha expandido rápidamente, impactando muchos campos, pero quizás nadie haya visto cambios más drásticos que la biología.
La Base de Datos de Proteínas cuenta con más de 654,38+0,7 millones de archivos de estructuras moleculares, incluida la "Expresión I" bacteriana, que funciona para combinar los procesos de síntesis de ARN y proteínas.
Las vastas bases de datos de genoma y proteínas utilizadas por los científicos hoy en día se originaron a partir del trabajo de Margaret de Hove, una química física estadounidense y pionera en el campo de la bioinformática. A principios de la década de 1960, mientras los biólogos intentaban clasificar las secuencias de aminoácidos de las proteínas, Dehoff comenzó a clasificar esta información para buscar pistas sobre las relaciones evolutivas entre diferentes especies. En 1965, ella y tres coautores publicaron Protein Sequence and Structural Atlas, que describe la secuencia, estructura y similitud de 65 proteínas conocidas en ese momento. El historiador Bruno Strasser escribió en 2010 que se trataba del primer conjunto de datos no vinculado a una pregunta de investigación específica. Codifica datos en tarjetas perforadas, lo que permite ampliar la base de datos y realizar búsquedas.
Le siguieron otras bases de datos biológicas "informáticas". El Banco de Datos de Proteínas entró en funcionamiento en 1971 y ahora registra en detalle más de 170.000 estructuras macromoleculares. Russell Doolittle, biólogo evolutivo de la Universidad de California en San Diego, creó otra base de datos de proteínas llamada Newat en 1981. En 1982, los Institutos Nacionales de Salud (NIH) colaboraron con varias instituciones para establecer GenBank, una base de datos de secuencias de ADN de acceso abierto.
Estos recursos de bases de datos demostraron su valor en julio de 1983. En ese momento, un equipo dirigido por el bioquímico Michael Waterfield de la Imperial Cancer Research Foundation, Londres, y el equipo de Doolittle informaron de forma independiente sobre una secuencia y una proteína específicas del factor de crecimiento humano (un virus que causa cáncer en monos). Las observaciones sugieren un mecanismo por el cual los virus inducen tumores: al imitar un factor de crecimiento, los virus pueden inducir un crecimiento incontrolado de células. James Austell, ex director del Centro Nacional de Información Biotecnológica (NCBI), dijo: "Este resultado dio a algunos biólogos que no estaban interesados en las computadoras y las estadísticas una bombilla: podemos comparar secuencias para comprender el cáncer".
Ostell también dijo que el descubrimiento marcó "la llegada de la biología objetiva".
Además de diseñar experimentos para probar hipótesis específicas, los investigadores pueden extraer conjuntos de datos públicos para encontrar conexiones en las que quienes realmente recopilan los datos tal vez nunca hubieran pensado. Este poder aumenta dramáticamente cuando se unen conjuntos de datos dispares. Los programadores del NCBI, por ejemplo, lograron esto en 1991 con Entrez; una herramienta que permitía a los investigadores buscar y comparar libremente ADN, proteínas y archivos.
Líder de pronóstico: Modelo de circulación general (1969)
Al final de la Segunda Guerra Mundial, el pionero de la informática John von Neumann comenzó a utilizar los métodos que había utilizado para calcular la balística unos años antes. Hace años, las computadoras para la trayectoria y el diseño de armas se centraron en el problema de la predicción del tiempo. Antes de eso, "el pronóstico del tiempo era sólo empírico", es decir, utilizando la experiencia y la intuición para predecir lo que sucederá a continuación. Por el contrario, el equipo de von Neumann "intentó hacer predicciones meteorológicas numéricas basadas en las leyes de la física".
La gente está familiarizada con estas ecuaciones desde hace décadas, dijo Venkatramani Balaji, jefe de la División de Sistemas de Modelado del Laboratorio de Dinámica de Fluidos Geofísicos de la Administración Nacional Oceánica y Atmosférica (NOAA) en Princeton, Nueva Jersey. Pero los primeros meteorólogos en realidad no pudieron resolver estos problemas. Para hacer esto, ingresa sus condiciones actuales, calcula cómo cambiarán en un corto período de tiempo y repite. Este proceso lleva mucho tiempo y los cálculos son imposibles de completar hasta que las condiciones climáticas realmente se materialicen. En 1922, el matemático Lewis Frye Richardson pasó varios meses calculando el pronóstico de seis horas para Munich, Alemania. Según un relato histórico, sus resultados fueron "tremendamente inexactos", incluidas predicciones que eran "imposibles bajo cualquier condición conocida del terreno". Las computadoras hacen que este problema sea fácil de resolver.
A finales de la década de 1940, von Neumann creó un grupo de predicción meteorológica en el Instituto de Estudios Avanzados de Princeton. En 1955, un segundo grupo, el Laboratorio de Dinámica de Fluidos Geofísicos, inició lo que llamó "predicciones infinitas" o modelización climática.
Shulang Mayu se unió al equipo de modelización climática en 1958 y comenzó a estudiar modelos atmosféricos. Su colega Kirk Bryan aplicó este modelo a la investigación oceánica. Desde 65438 hasta 0969, combinaron con éxito los dos y crearon lo que la revista Nature llamó un "hito" en la informática científica en 2006.
Los modelos actuales pueden dividir la superficie de la Tierra en cuadrados de 25 kilómetros y cuadrados de 25 kilómetros, y dividir la atmósfera en docenas de capas. En comparación, el modelo conjunto océano-atmósfera de Shulang y Bryan Makoto divide el área en 500 kilómetros cuadrados y divide la atmósfera en nueve niveles, cubriendo sólo una sexta parte de la Tierra. Aún así, dice Venkatramani Balaji, "el modelo es muy bueno", lo que permite al equipo predecir los efectos del aumento de los niveles de dióxido de carbono in silico por primera vez.
Calculadora de números: BLAS (1979)
Los cálculos científicos a menudo implican operaciones matemáticas relativamente simples utilizando vectores y matrices, pero hay demasiadas. Sin embargo, en la década de 1970 no existían herramientas computacionales universalmente reconocidas para realizar estas operaciones. Como resultado, los programadores que trabajan en ciencias dedican su tiempo a diseñar código eficiente para realizar operaciones matemáticas básicas en lugar de centrarse en problemas científicos.
El superordenador Cray-1 en el Laboratorio Nacional Lawrence Livermore en California. Antes de la llegada de la herramienta de programación BLAS en 1979, no existía un estándar de álgebra lineal para los investigadores que trabajaban en la supercomputadora Cray-1.
El mundo de la programación necesita un estándar. Un estándar de este tipo apareció en 1979: Subrutinas básicas de álgebra lineal (BLAS). Este es un estándar de interfaz de programación de aplicaciones (API) que se utiliza para estandarizar el lanzamiento de bibliotecas numéricas para operaciones básicas de álgebra lineal, como la multiplicación de vectores o matrices. El estándar había evolucionado hasta 1990, definiendo docenas de rutinas básicas para matemáticas vectoriales y más tarde matemáticas matriciales.
Jack Dongarra, científico informático de la Universidad de Tennessee y miembro del equipo de desarrollo de BLAS, dijo que, de hecho, BLAS simplifica las matemáticas matriciales y vectoriales en unidades de cálculo básicas como la suma y la resta.
Robert van de Geijn, científico informático de la Universidad de Texas en Austin, señala que BLAS es "probablemente la interfaz más importante definida para la informática científica". Además de proporcionar nombres estandarizados para funciones de uso común, los investigadores pueden garantizar que el código basado en BLAS funcione de la misma manera en cualquier computadora. El estándar también permite a los fabricantes de computadoras optimizar la instalación y activación de BLAS para una operación rápida en su hardware.
Durante más de 40 años, BLAS ha representado el núcleo de la informática científica, el código que hace funcionar el software científico. Lorena Barba, ingeniera mecánica y aeroespacial de la Universidad George Washington en Estados Unidos, lo llama "maquinaria en cinco capas de código". "Proporciona la estructura básica para nuestros cálculos", dijo Jack Tangara.
Microscopio: Imagen NIH (1987)
A principios de la década de 1980, el programador Wayne Wayne Rasband está en los Institutos Nacionales. del Laboratorio de Imágenes Cerebrales de Salud en Bethesda, Maryland. El laboratorio cuenta con escáneres que pueden digitalizar rayos X, pero no se pueden mostrar ni analizar en una computadora. Para ello, Rasband escribió un programa.
Este programa está diseñado específicamente para la pequeña computadora PDP-11 de $15,000. El ordenador estaba montado sobre un soporte y claramente no era apto para uso personal. Luego, en 1987, Apple lanzó el Macintosh II, una opción más asequible y fácil de usar. "En mi opinión, este es claramente un mejor sistema para el análisis de imágenes en el laboratorio", dijo Rasband. Movió el software a una nueva plataforma, le cambió el nombre y estableció un ecosistema de análisis de imágenes.
NIH Image y sus versiones posteriores permiten a los investigadores ver y cuantificar prácticamente cualquier imagen en cualquier computadora. La familia de software incluye ImageJ, una versión basada en Java escrita por Rasband para usuarios de Windows y Linux; y Fiji, una versión distribuida de ImageJ desarrollada por el Instituto Max Planck de Biología y Genética Celular Molecular en Dresden, Alemania. , incluidos complementos clave. "ImageJ es definitivamente la herramienta más fundamental que tenemos", dice Beth Chemini, bióloga computacional de Imaging Platform en el Broad Institute, cofundado por el MIT y Harvard. "Nunca he hablado con un biólogo que haya usado un microscopio pero que nunca haya usado ImageJ o Fiji". Rasband dijo que parte de la razón puede ser que estas herramientas son gratuitas. Pero otra razón, afirma Kevin Eliceiri, ingeniero biomédico de la Universidad de Wisconsin-Madison, es que los usuarios pueden personalizar fácilmente las herramientas para adaptarlas a sus necesidades. El equipo de Kevin Eliceiri ha liderado el desarrollo de ImageJ desde el retiro de Rasband. ImageJ ofrece una interfaz de usuario aparentemente simple y minimalista que se ha mantenido prácticamente sin cambios desde la década de 1990. Sin embargo, la herramienta es infinitamente escalable gracias a su grabador de macros incorporado (que permite a los usuarios guardar flujos de trabajo grabando secuencias de clics del mouse y selecciones de menú), amplia compatibilidad de formatos de archivo y arquitectura de complementos flexible. Curtis Ruden, director de programación del equipo, dijo que "cientos" de personas han contribuido con complementos a ImageJ. Estas capacidades recién agregadas amplían enormemente el conjunto de herramientas de los investigadores, como el seguimiento de objetos en videos o la identificación automática de células.
Kevin Eliceiri dijo: "El propósito de este programa no es hacer todo ni ser el final de todo, sino servir a los objetivos del usuario. A diferencia de Photoshop y otros programas, ImageJ puede ser cualquier cosa que desees. "
Buscador de secuencias: BLAST (1990)
Quizás nada ilustra mejor la relevancia cultural que convertir el nombre de un software en un verbo. Cuando se trata de búsqueda, uno piensa en Google; cuando se trata de genética, los investigadores inmediatamente piensan en BLAST.
A través de sustituciones, eliminaciones, eliminaciones y reordenamientos, los organismos graban cambios evolutivos en secuencias moleculares.
Encontrar similitudes entre secuencias, especialmente entre proteínas, permitirá a los investigadores descubrir relaciones evolutivas y obtener una comprensión más profunda de la función de los genes. En la biblioteca de información molecular en rápida expansión, no es fácil ser rápido y preciso.
Margaret de Hove aportó avances clave en 1978. Diseñó una matriz de "mutación puntual de aceptación" que permite a los investigadores evaluar la relación genética de dos secuencias de proteínas basándose no sólo en su similitud, sino también en su distancia evolutiva.
En 1985, William Pearson de la Universidad de Virginia y David Leigh Pullman del NCBI introdujeron FASTP, un algoritmo que combinaba matrices de Hoff con capacidades de búsqueda rápida.
Unos años más tarde, Leapman, junto con Warren Kish y Stephen Atshur del NCBI, Weber Miller de la Universidad Estatal de Pensilvania y Gene Myers de la Universidad de Arizona, desarrollaron una técnica más potente y mejorada: la explosión ( alineación local básica). Publicado en 1990, BLAST combina la velocidad de búsqueda necesaria para manejar bases de datos en rápido crecimiento con la capacidad de extraer coincidencias más distantes durante la evolución. Al mismo tiempo, la herramienta también puede calcular la probabilidad de estas coincidencias.
Atshur dijo que los resultados del cálculo se publicarían pronto. "Puedes escribir tu búsqueda, tomar un sorbo de café y la búsqueda estará lista". Pero lo más importante es que BLAST es fácil de usar. En una era en la que las bases de datos se actualizaban por correo, Warren Gish creó un sistema de correo electrónico y, más tarde, una arquitectura basada en la web que permitía a los usuarios realizar búsquedas de forma remota en las computadoras del NCBI, garantizando que los resultados de la búsqueda estuvieran siempre actualizados.
Sean Eddie, biólogo computacional de la Universidad de Harvard, dijo que el sistema BLAST proporcionó una herramienta revolucionaria para el campo de la biología genómica, que en ese momento estaba en su infancia, para descubrir genes basados en genes relacionados. Una aproximación a las posibles funciones de genes desconocidos. También proporciona un verbo novedoso para los laboratorios de secuenciación de todo el mundo. "Este es uno de los muchos ejemplos de cómo un sustantivo se convierte en verbo", dijo Eddie. "Dirías que vas a hacer estallar tu secuencia".
Plataforma de preimpresión: arXiv.org (1991)
A finales de la década de 1980, los físicos de alta energía a menudo envían copias de sus artículos y manuscritos a sus pares para que realicen comentarios, pero sólo a unos pocos. El físico Paul Kingspug escribió en 2017: "Los que están más abajo en la cadena alimentaria dependen de los logros de los investigadores de primera línea, mientras que los aspirantes a investigadores de instituciones que no son de élite tienden a permanecer en círculos privilegiados".
En. En 1991, Ginsparger, que entonces trabajaba en el Laboratorio Nacional de Los Álamos en Nuevo México, escribió una respuesta automática por correo electrónico con la esperanza de nivelar el campo de juego. Los suscriptores reciben una lista diaria de preimpresiones, con cada artículo asociado con un identificador de artículo. Con solo un correo electrónico, los usuarios de todo el mundo pueden enviar o recuperar artículos de los sistemas informáticos del laboratorio, obtener una lista de artículos nuevos o buscar por autor o título.
El plan de Ginsburg era conservar el artículo durante tres meses y limitar el contenido al campo de la física de altas energías. Pero un colega lo convenció de conservar los artículos indefinidamente. “En ese momento, pasó de ser un tablón de anuncios a ser un archivo”, dijo. Empezaron a llegar documentos de todos los campos. En 1993, Ginsberg trasladó el sistema a Internet y en 1998 lo llamó arXiv.org, que todavía se utiliza en la actualidad.
ArXiv existe desde hace casi 30 años. Tiene alrededor de 654,38+08.000 preimpresiones, todas ellas gratuitas. Envía más de 654,38+05.000 artículos cada mes y se ha descargado 30 millones de veces. Al comentar sobre el vigésimo aniversario de arXiv hace 10 años, el editor de Nature Photonics escribió: "No es difícil ver por qué los servicios de arXiv son tan populares. El sistema permite a los investigadores colocar rápida y fácilmente una bandera para mostrar su trabajo, mientras evita la problemas y costo de tiempo que implica enviar a revistas tradicionales revisadas por pares”.
El éxito del sitio web arXiv también ha promovido la prosperidad de sitios web de preimpresión similares en biología, medicina, sociología y otras disciplinas. Este impacto se puede ver en las decenas de miles de preimpresiones sobre COVID-19 que se han publicado hoy.
"Es fantástico ver que un enfoque que hace 30 años se consideraba herético fuera del campo de la física de partículas ahora se considera generalmente mundano y natural", dijo Ginsburg. "En ese sentido, es como un proyecto de investigación exitoso".
Explorador de datos: Ipython Notebook (año 2011)
En 2001, Fernando Pérez (Fernando Peres, un estudiante de posgrado que quería Para "encontrar la procrastinación", decidió adoptar un componente central de Python.
Python es un lenguaje interpretado, lo que significa que los programas se ejecutan línea por línea. Los programadores pueden utilizar una herramienta computacional de llamada y respuesta llamada bucle de lectura, evaluación e impresión, o REPL, donde ingresan el código y el intérprete lo ejecuta. El REPL permite una exploración e iteración rápidas, pero Pérez señala que el REPL de Python no está diseñado con fines científicos. Por ejemplo, no permite a los usuarios precargar fácilmente módulos de código o abrir visualizaciones de datos. Entonces Pérez escribió otra versión él mismo.
El resultado fue el nacimiento de IPython, un intérprete de Python "interactivo" lanzado por Pérez en febrero de 2006. * *Hay 259 líneas de código. Diez años después, Pérez se asoció con el físico Brian Granger y el matemático Evan Patterson para trasladar la herramienta a un navegador web y lanzar IPython Notebook, que inició una revolución en el campo de la ciencia de datos.
Al igual que otros portátiles informáticos, IPython Notebook combina código, resultados, gráficos y texto en un solo documento. Pero a diferencia de otros proyectos similares, IPython Notebook es de código abierto e invita a participar a una gran comunidad de desarrolladores. Es compatible con Python, un lenguaje muy popular entre los científicos. En 2014, IPython evolucionó a Jupyter, que admite alrededor de 100 idiomas y permite a los usuarios explorar datos en supercomputadoras remotas tan fácilmente como en sus propias computadoras portátiles.
La revista Nature escribió en 2018: "Para los científicos de datos, Jupyter se ha convertido en un estándar de facto". En la actualidad, había 2,5 millones de portátiles Jupyter en la plataforma de código compartido GitHub; 100.000, desempeñando un papel importante en el descubrimiento de ondas gravitacionales en 2016 y la obtención de imágenes de agujeros negros en 2019. "Hacemos una pequeña contribución a estos proyectos y vale mucho la pena", afirmó Pérez.
Aprendizaje rápido: AlexNet (2012)
Hay dos tipos de inteligencia artificial. Una es utilizar reglas de codificación y la otra es dejar que la computadora "aprenda" simulando la estructura neuronal del cerebro. ¿Jeffrey, científico informático de la Universidad de Toronto en Canadá? Durante décadas, los investigadores de IA han descartado esto último como "una tontería", dijo Hinton. Sin embargo, en 2012, sus estudiantes de posgrado Alex Kresse e Ilya Suzkovi demostraron lo contrario.
En la competencia anual ImageNet, se pidió a los investigadores que entrenaran inteligencia artificial en una base de datos de más de 654,38 millones de imágenes de objetos cotidianos y luego probaran los algoritmos resultantes en un solo conjunto de imágenes. Los mejores algoritmos de la época clasificaron erróneamente alrededor de una cuarta parte de las imágenes, dijo Hinton. AlexNet de Creaser y Su Zikewei es un algoritmo de "aprendizaje profundo" basado en redes neuronales que reduce la tasa de error al 16%. "Básicamente reducimos la tasa de error a la mitad, o casi a la mitad", dijo Hinton también señaló que el éxito del equipo en 2012 reflejó un conjunto de datos de entrenamiento suficientemente grande, una programación excelente y las poderosas capacidades de las unidades de procesamiento de gráficos emergentes. Una unidad de procesamiento de gráficos es un procesador diseñado originalmente para acelerar el rendimiento del vídeo de la computadora. "De repente, podemos acelerar (el algoritmo) 30 veces", dijo. "Como alternativa, podríamos aprender hasta 30 veces más datos".
El verdadero avance del algoritmo ocurrió hace tres años, cuando el laboratorio de Hinton creó una red neuronal que podría mejorar docenas de años de IA tradicional para reconocer el habla. con mayor precisión. “Es un poco mejor”, dijo Hinton, “pero muestra algo.
”
Estos éxitos ilustran el auge del aprendizaje profundo en la investigación de laboratorio, la medicina clínica y otros campos. A través del aprendizaje profundo en inteligencia artificial, los teléfonos móviles pueden comprender consultas de voz y las herramientas de análisis de imágenes pueden identificar fácilmente objetos en micrografías. células; es por eso que AlexNet se convertirá en una de las herramientas que cambiará fundamentalmente la ciencia y el mundo (Ninten)