Bing adquiere google y muestra los resultados de búsqueda 10 veces más rápido

Tabla de contenido:

Video: 🤔 ✔ Cambiar el motor de búsqueda de Microsoft Edge De Bing a Google 2024

Video: 🤔 ✔ Cambiar el motor de búsqueda de Microsoft Edge De Bing a Google 2024
Anonim

El hardware especializado de Microsoft para el cómputo de IA se llama Brainwave, y está creado de tal manera para ejecutar una red neuronal lo más rápido posible con una latencia mínima.

La compañía anunció que desde que usó Brainwave, logró obtener un rendimiento diez veces más rápido de la IA de Bing. El modelo de aprendizaje automático básicamente impulsa la funcionalidad del motor de búsqueda.

El objetivo de Microsoft que debe lograrse a través de Brainwave es proporcionar predicciones de IA en tiempo real para aplicaciones como las últimas funciones de Bing.

Bing recibe nuevas funciones

Microsoft también le da a Bing algunas características nuevas, y las más importantes que vale la pena mencionar son ofrecer más respuestas a preguntas prácticas y soporte para definir palabras que no se usan con tanta frecuencia cuando los usuarios colocan el puntero del mouse sobre ellas. Estas características son impulsadas por Brainwave.

Microsoft está utilizando los FPGA de Intel para potenciar el cálculo de IA

Los FPGA son una especie de lienzos en blanco para que los desarrolladores los usen cuando desean implementar varios circuitos mediante el envío de un nuevo software. Esto implica una potente mezcla de rendimiento y programabilidad.

Ahora, Microsoft puede hacer más que crear modelos más rápidos con el hardware; La compañía también puede construir sistemas de IA más sofisticados. Por ejemplo, el Turing Prototype 1 de Bing ahora es diez veces más complejo y más rápido gracias a la capacidad de cálculo agregada a través de Brainwave.

Los FGA implementados por Microsoft vienen con procesadores de señal digital dedicados a bordo mejorados para matemáticas complejas de IA.

El principal beneficio de los FPGA

La ventaja más significativa de los FPGA sobre las GPU (que se convirtió en la opción preferida para el cálculo de IA) es que no requieren un uso extensivo de los cálculos por lotes.

Una innovación clave permite a Microsoft obtener resultados tan exitosos a través de FPGAs es el uso de tipos de datos de punto flotante de 8 y 9 bits que aumentan radicalmente el rendimiento.

Los chips FPGA de Intel le permiten a Bing leer y analizar rápidamente miles de millones de documentos en toda la web y proporcionar la mejor respuesta a su pregunta en menos de una fracción de segundo.

De hecho, los FPGA de Intel nos han permitido disminuir la latencia de nuestros modelos en más de 10 veces y al mismo tiempo aumentar el tamaño de nuestro modelo en 10 veces.

El uso de FPGA para acelerar el cálculo de la IA se remonta a 2012

Microsoft comenzó a usar FPGA para mejorar la velocidad del cálculo de IA hace más de seis años cuando el equipo de Bing comenzó a usar los chips. Todo esto también es una gran noticia para Intel. La compañía compró Altera, un fabricante de FPGA en 2015, y el acuerdo de $ 16.7 mil millones proporcionó a Intel la potencia necesaria para satisfacer las necesidades de Microsoft hasta hoy.

Esperamos ver Brainwave disponible a través de Microsoft Azure para ofrecer a los clientes la oportunidad de implementar sus modelos.

Bing adquiere google y muestra los resultados de búsqueda 10 veces más rápido