Elvis Suarez25/10/2021
Slai.jpg

4min420

Muchas son las personas interesadas en aprender un idioma nuevo. Y la verdad muchos desisten de ello por diversas razones. La cuestión aquí, es que siempre hay formas de iniciar con una labor como esa y no es tan difícil.

Es más bien un poco de práctica lo que hace falta. Muchos lo intentan, pero luego no consiguen como practicar lo aprendido en gramática y otros aspectos del idioma nuevo.

Estos debido a que la parte conversacional se les hace imposible porque no hay quien les ayude en la práctica para de esa manera desarrollar la fluidez que pueda necesitar.

En el caso de idiomas como el inglés existen una variedad tremenda de opciones para desarrollar destrezas en cuanto a si aprendizaje. La cuestión es que, por lo general, las opciones se limitan ya sea por falta de tiempo y más aún por el factor económico.

Es aquí donde hay que detenerse un momento, porque existe una IA con la cual se puede adquirir destrezas con el idioma, mientras ella puede ayudar a corregir posibles errores.

La nueva IA lleva por nombre Slai ofrece la práctica de ejercicio diario del idioma en lo conversacional, aparte de la comodidad en cuanto a su disposición. También permite iniciar una conversación con la IA para ir detectando errores gramaticales e ir corrigiendo a medida que se avanza.

Si el avance es constante, la aplicación mide el grado de avance y por lo tanto llevar un registro de los errores que se cometen justamente para hacer la debida corrección.

También ofrece la ventaja de traducir al español aquellas frases que no son del todo comprendidas del chatbot al usuario.

Es una herramienta, con disponibilidad para iOS y Android, que viene en dos tipos de planes:

  1. El primero, gratis y permanente con acceso solo al chatbot y a señalar los errores, para luego hacer la corrección.
  2. El segundo   de suscripción de un dólar mensual que da acceso a más funciones, para personalizar el programa de estudios y con adición de una explicación sobre los errores cometidos, según la gramática.

Entre los planes para 2022 de los desarrolladores está integrar a la plataforma un sistema de chat con hablantes nativos reales, como complemento al modelo que llevan con la IA.

Slai ofrece una serie de ventajas que se pueden aprovechar y sirven justamente para lo que necesita y deseas.

Así que es buena acceder a ella e intentar aprender otro idioma con esta IA y adquirir destrezas con Slai.


Elvis Suarez15/10/2021
Middel-2.png

5min580

La creación de voces a partir del uso de la voz original es todo un hecho, y es tan real el asunto que existe la posibilidad de que los doblajes tradicionales estén a punto de extinguirse.

Es prácticamente un hecho, la creación de voces artificiales está en proceso de fabricación. De allí que muchas compañías dedicadas al ramo de entretenimiento o el doblaje estén listos para iniciarse en este campo que va a cambiar el sonido de las series las películas, todo ello gracias al uso de una IA que puede lograr crear voces humanas, por medio del uso de muestras de voz de un actor vivo, y que además tiene como característica que suena como si fuera el propio artista, además de poder hablar otro idioma, llorar, gritar, reír y hasta hablar con la boca llena.

Apenas se usan extractos de la voz original del artista y puede crearse infinidad de expresiones, pero a la par, las empresas están trabajando también en mejorar la técnica visual que logre juntar sonido e imagen y todo parezca más natural.

Claro el aspecto ético hace acto de presencia en esta innovación, porque los usos de voces sintéticas han cruzado fronteras. Estos modelos de IA pueden llegar a dar voces juveniles para actores van envejeciendo.

De hecho, está técnica puede lograr dar nueva vida al audio de famosos ya fallecidos o que, por diversas razones, ya no pueden hablar, lo que permitiría cambiar el diálogo en el área de posproducción sin la presencia de actores. Pero, vale recordar, las cuestiones éticas no pueden dejarse de lado.

También, el aspecto legal debe ser tomado en cuenta, esto porque, aunque se pueda hacer, se debe pedir un permiso previo de familiares o a quien corresponda, para realizar estas labores si es alguien que ya falleció y evitar problemas a futuro.

Los deepfakes, o vídeos que tienen el audio manipulado son bastante frecuentes en la red. Por ejemplo, los intentos de varias compañías de modificar la voz de Morgan Freeman en demostraciones, ya se han llevado a cabo y estos incluso no están permitidas para uso público, por lo que representantes legales del mismo actor criticó han señalado que se estaba haciendo tal proceso sin el permiso de Freeman.

Se hizo lo mismo con permiso de Mark Hamill en una escena de Star Wars, en un episodio de la serie The Mandolarian, el resultado es que la gente no pareció notar el cambio en la voz.

Lo mismo hizo la firma londinense de inteligencia artificial Sonantic recientemente con el actor Val Kilmer logrando recrear casi 2 minutos de su voz, como se recordará el actor perdió la voz por un cáncer de garganta. El resultado es que al aplicar la IA, la voz sonaba tan real que logró conmover a su propio hijo.

Puede que este método resulte un adelanto por demás asombroso, pero en los últimos meses, en Los Ángeles muchos abogados han recibido gran cantidad de peticiones de empresas que intentan el uso voces sintéticas en lugar de artistas originales.

Así crece el riesgo de que las empresas puedan hacer el procesamiento de la voz de los actores sin que estos estén presentes, el asunto es, ¿Los actores originales estarán de acuerdo o a gusto con este tema?


Elvis Suarez06/10/2021
Google-MUM.jpg

4min720

Los cambios para mejor siempre son buenos, es por ello, que, si quieres ser exitoso, debes ser bastante dedicado y en lo posible buscar crecer para poder ir avanzando.

Por eso, Google está trabajando en mejorar y ha decidido hacerlo en su motor de búsqueda, esto por medio de inteligencia artificial en un nuevo Avance en esta área, que consiste en responder preguntas casi que de la manera como lo hacen lo humanos.

En la sede de la compañía en Mountain View, en un evento que se llevó a cabo hace apenas unos días, Google presentó un nuevo Modelo Unificado Multitarea (MUM) y las aplicaciones específicas para dicho modelo.

Se supone que MUM está en capacidad de poder comprender e interpretar información de una gran variedad de formatos de datos, entre los que se manejan:  texto, imágenes y sonidos juntos, de ahí surge el nombre de Multitarea.

El nuevo modelo de IA se encarga de prestar ayuda al motor de búsqueda de Google respondiendo preguntas con cierto nivel de dificultad, y además puede ayudar a encontrar objetos previamente solicitados al motor de búsqueda, por medio de una indicación de la imagen del objeto en cuestión.

Para ello es necesario la IA aprenda pensar de manera abstracta. De allí se ha desprendido inclusive que será posible también por ejemplo realizar búsquedas de texto e imágenes, así como ciertos patrones característicos de un objeto determinado en una misma búsqueda.

En vista de los avances presentados por otras compañías expertas en el área, Google intenta avanzar, buscando el mayor desarrollo de la IA con empeño y trabajo duro.

La compañía está recopilando datos y por medio de los servicios que presta con cerca de mil millones de usuarios en todo el mundo, como Google Photos, Google Search, Youtube o Maps, está haciendo un trabajo mancomunado para lograr resultados como MUM.

Con MUM, según se hizo público, los usuarios de Google ahora además de poder tomar fotografías de ropa y otros objetos y también podrán comprar en Internet, además de que se mostrarán tiendas en aplicaciones como Google Maps, para que así puedan probarse y hacer la respectiva compra del producto.

En líneas generales, un avance muy acertado de parte de Google y su IA.


Elvis Suarez02/10/2021
1024_2000.jpg

5min750

Samsung ha hecho una propuesta interesante de “copiar y pegar» datos de nuestro cerebro a chips de memoria en un proceso conocido como computación neuromórfica.

En este sentido se puede definir la computación neuromórfica como aquella que busca lograr un diseño en el área de algoritmos y los circuitos integrados que la conforman, en medio de un proceso que busca simular el sistema nervioso animal, pudiendo decir además que es durante los años que han corrido recientemente han dado avances importantes dentro de este campo.

Debido a todo lo anterior Samsung, no quiere quedarse atrás y ha hecho público su pretensión   desarrollar un sistema que permita «copiar y pegar» literalmente el cerebro en un chip de memoria basado en el mapa de lo que sería el cableado neuronal.

Dentro del ámbito de la inteligencia artificial, la computación neuromórfica reviste mucha importancia ya que dota de eventos y circunstancias importantes a esta rama con lo cual se pueden lograr avances que permitirán de alguna forma lograr objetivos que estarían direccionados a intervenir en aspectos a nivel tecnológico que puedan lograr facilidad y normalidad por así decirlo en pasar información de nuestro cerebro a microchips diseñados para tal fin.

Trasladar la mente a un chip

El mind uploading es un experimento mental que busca de forma muy instructiva la idea para reflexionar sobre la identidad del ser humano.

Pero la propuesta de Samsung no habla directamente de guardar la mente de una persona, sí de guardar el mapa de las conexiones neuronales dentro de un chip para obtener algunas de las ventajas de la manera de funcionar de nuestro cerebro.

Por el momento lo más cercano a esto es el trabajo llamado Electrónica Neuromórfica, el cual no es más que un experimento que busca realizar la misión de copiar y pegar el cerebro.

Dicha investigación está publicado en la revista Nature electronic y fue desarrollada por Donhee Ham, del Instituto Avanzado de Tecnología de Samsung (SAIT), Hongkun Park, profesor de la Universidad de Harvard, Sungwoo Hwang, Director General de Samsung SDS y Kinam Kim, VP de Samsung Electronics.

Fuente: Nature

El mismo lo que sostiene es básicamente, la idea de hacer uso de una nueva matriz de nanoelectrodos que fue inventada por los científicos miembros de la compañía para poder de alguna forma adherir el mapa de conexiones neuronales con una red de memorias de estado sólido.

Estamos hablando simplemente de trasladar la información de nuestro cerebro a un chip, tal cual como si fuera un disco duro.

El mencionado chip tendría muchas características relativamente parecidas a los rasgos informáticos propios de nuestro cerebro. Con esto podría lograr «facilidad de aprendizaje, además de procesamiento de la información o bajo consumo, y la adaptación al entorno.

Los científicos sostienen y afirman: «La visión que presentamos es muy ambiciosa, pero trabajar para conseguir un objetivo tan heroico superará los límites de la inteligencia artificial, la neurociencia y la tecnología de semiconductores», concluye el Dr. Donhee Ham.

Aparte de Samsung, empresas compañías como Intel, IBM o HP intentando avanzar en esta área van direccionados a la inversión en la computación neuromórfica.

No sé puede negar el potencial de esta materia, así se podría lograr llevar al mundo informático la forma de procesar la información propia de nuestro cerebro, sin pretender ir más allá de una creación propia de la naturaleza.


Elvis Suarez30/09/2021
speaking-portrait-deepfake.jpg

5min990

Si nos ponemos a recordar un poco las pelis de Harry Potter, no está demás pensar en aquellas fotografías parlanchinas dentro de esta saga. Ahora, será posible para nosotros lograr algo parecido por medio de una nueva herramienta que ha llegado al punto de animar cualquier fotografía haciéndole hablar y expresarse ¡Es una verdadera locura!

No es un sueño pues ahora están a nuestro alcance los «retratos hablantes”, su tecnología consiste en colocar voz y expresión a las fotografías de una persona siempre que la imagen sea frontal.

Si nos vamos a unos meses atrás específicamente en marzo de este año la gente de D-ID nos dejó a todos gratamente sorprendidos al presentar a Deep Nostalgia, la herramienta de IA capaz de lograr animar fotos antiguas.

Con ella se obtenían buenos resultados, de hecho, eran fenomenales, bastante fuera de lo que cualquier persona pudiera esperar.

Pero, como la gente que inventa este tipo de herramientas, siempre busca ir más allá, siguieron intentando más cosas, que al final de cuentas eran una mejora bastante notable de la herramienta anterior.

La nueva herramienta

La limitación que Deep Nostalgia tenía que en ella las animaciones debían estar preconfiguradas. Ahora con esta nueva herramienta llamada “Speaking Portraits”, se tiene la libertad de controlar los movimientos, cosa que Deep Nostalgia no ofrecía hacer libremente.

Vale destacar que dicha herramienta fue presentada en el TechCrunch Disrupt 2021, y dio pie a mostrar sus capacidades en lo que se refiere a aprendizaje profundo y deepfakes.

Es de verdad asombroso, cómo está nueva herramienta anima las fotografías de rostros logrando expresiones realistas, pero usando la voz de otra persona que habla en directo.

Entrenando personajes

Si tomamos la decisión de utilizar la versión más sofisticada de Speaking Protrait, conocida como Trained Character la cosa se pone más interesante aún, porque Trained Character te permite entrenar a la IA con muchos más datos de la persona a ser animada, y evidentemente eso mejora en gran porcentaje el resultado.

Eso sí, es necesario aclarar que se necesita un vídeo de diez minutos más o menos donde el sujeto esté en movimiento y realice ciertas expresiones. Es así como se logra que la IA se entrene en base a las características de la persona a animar para que luego hable y se mueva.

Luego de la recolección de datos se procede a grabar a la persona que va a realizar la animación lo cual va a preguntar una fotografía que habla y se mueve, tal cual como se le pide.

Si el usuario accede a la versión avanzada el fondo puede estar animado también con el resultado mucho más real.

Resulta útil, ya que más allá de controlar en el caso de videollamadas puede ser útil para aumentar las habilidades y de una persona. Es así como en el caso de películas, por ejemplo, un actor doblado en otros idiomas puede tener sus labios sincronizados con la voz.

En realidad, las utilidades de esta maravillosa herramienta son bastante innovadoras y sorprendentes. Ahora resta esperar cuál será el próximo avance en la tecnología Deppfake.


Elvis Suarez25/09/2021
GPTe-1280x672.jpg

7min1580

OpenAI nos trae algo excepcional por medio de GPT-3, el cual es un nuevo modelo de lenguaje que permite lograr programar, diseñar, entre otras cosas, todo de forma fluidamente y, ha logrado en esta oportunidad resumir libros completos en frases más puntuales y resumidas. En este caso lo hizo por Alicia en el país de las maravillas.

Este sistema cuando realiza su labor, no hace el resumen de todo el libro de una sola vez, la verdad logra su cometido reduciendo la tarea en pequeñas labores. Esto lo cual lo hace bastante particular a la hora de resumir este tipo de publicaciones.

¿Cómo hace el resumen?

Primero resume el texto original en secciones, posteriormente hace el resumen de dichas secciones, las cuales son nuevamente reducidas en secciones mucho más pequeñas que las anteriores y, finaliza su trabajo, haciendo un resumen más corto tomando para tal fin, la idea principal del libro.

OpenAI, sostiene que a través de su modelo que se vale de GPT-3, lo que se hace es generar «resúmenes sensatos de libros entero incluso igualando la calidad media de los resúmenes escritos por humanos».

OpenAI ha se ha valido de hacer publicaciones de una serie de resúmenes de una variedad de libros en su página web.

Aquí un ejemplo de lo logrado con Alicia en el país de las maravillas y con Romeo y Julieta:

«Alicia cae en una madriguera y crece hasta alcanzar un tamaño gigantesco tras beber una misteriosa botella. Decide concentrarse en volver a su tamaño normal y encontrar el camino hacia el jardín. Se encuentra con la Oruga, que le dice que un lado de la seta la hará crecer más alto y el otro más bajo. Se come la seta y vuelve a su tamaño normal. Alicia asiste a una fiesta con el Sombrerero Loco y la Liebre de Marzo. La Reina llega y ordena la ejecución de los jardineros por haberse equivocado con las rosas. Alicia las salva poniéndolas en una maceta. El Rey y la Reina de Corazones presiden un juicio. La Reina se enfada y ordena que Alicia sea condenada a muerte. Alicia se despierta y encuentra a su hermana a su lado» – Alicia en el País de las Maravilla (26.449 palabras).

«Romeo se encierra en su habitación, ya no está enamorado de Rosalina. Capuleto invita a muchos invitados a su fiesta, entre ellos Romeo y su amor, Julieta. Lady Capuleto le dice a Julieta que Paris, un hombre valiente, busca su mano en matrimonio. Romeo ve a Julieta y se enamora de ella. Julieta le confiesa su amor a Romeo y acuerdan casarse. Romeo mata a Tybalt en una pelea y es condenado al exilio. Julieta acepta fingir su muerte e ir a Mantua con Romeo. Romeo compra veneno para matar a Julieta en su tumba. Él y Paris se pelean y ambos mueren. Julieta se despierta y se suicida. El Príncipe dice que el cielo ha castigado el odio entre los Capuletos y los Montescos» – Romeo y Julieta (25.433 palabras).

La compañía sostiene que los modelos grandes que han podido ser entrenados previamente no son buenos en esto de los resúmenes, por lo cual para mejorarlos, deberán trabajar con comentarios de humanos, pero esto incluye el detalle de que dichos humanos deben haber por lo menos leído el libro entero.

Afortunadamente este es un asunto que tiene una manera de arreglarse: Lo ideal es dividir una tarea difícil en otras más fáciles.

Lo que en consecuencia va a permitir a los humanos evaluar los resúmenes de forma rápida y en consecuencia logrará que el modelo pueda resumir libros de diversas extensiones.

Este modelo ha sido entrenado con un dataset de libros, de ficción, con una media de 100.000 palabras.

Lograron la evaluación del modelo, con una selección de los 40 libros más populares de 2020 y de esta manera encargaron a dos personas que los leyeran, resumieran y evaluaran el resumen hecho por la IA.

El resultado obtenido es bastante bueno, sin embargo, los ejemplos de los libros nombrados, pueden dar origen a afirmaciones inexactas, posiblemente debido a la falta de contexto que deviene de ir simplificando una tarea grande en otras tareas más pequeñas lo que puede convertir el resumen en una serie de eventos importantes que hay en el libro.

Por medio de declaraciones a VentureBeat, la compañía OpenAI ha sostenido que “no tiene places de hacer disponible públicamente u open source el modelo de resumen de libros».

En definitiva, una idea que permite lograr un resumen bastante marcado de un material muy extenso lo que simplifica enormemente una labor, no obstante, carecen de exactitud, por lo que es necesario realizar las correcciones de los detalles para lograr la perfección.


Elvis Suarez22/09/2021
Apple-cicle.jpg

3min610

Según  The Wall Street Journal, Apple está trabajando en una serie de nuevos proyectos y tecnologías que ayudarán a identificar el estrés, la depresión, la ansiedad y el deterioro cognitivo.

En otras palabras, Apple está tratando de desarrollar algoritmos que puedan ayudar de manera confiable a detectar y diagnosticar una variedad de problemas de salud mental utilizando los datos biométricos de un usuario.

Estos proyectos se están implementando en asociación con la Universidad de California, Los Ángeles (UCLA) y la empresa de biotecnología Biogen.

El proyecto tiene el nombre en código Seabreeze y se espera que ayude a reconocer las deficiencias cognitivas leves.

Funcionamiento

La tecnología tomará estas decisiones de diagnóstico mediante el análisis de las expresiones faciales del usuario, los patrones del habla, la frecuencia y velocidad de la caminata, los patrones de sueño y, finalmente, la frecuencia cardíaca y la frecuencia respiratoria.

Pero eso no es todo, ya que la tecnología obviamente también verificará la tasa de error al imprimir, así como el tipo de mensajes que escriben los usuarios, y posiblemente mucho más.

Para evitar problemas de privacidad de los datos, no se enviará ningún análisis de datos a los servidores de Apple: todo se hará directamente en los dispositivos de los usuarios.

Este proyecto suena bastante interesante y nos da la posibilidad de tener nuestro propio psicólogo personal en nuestras manos ¿Qué te parece?


Elvis Suarez04/08/2021
Global-Information-Dominance-Experiments_large-1280x720.jpg

2min770

Recientemente, el Comando Norte de EE. UU. Completó una serie de pruebas llamadas Experimentos de Dominio de la Información Global (GIDE).

En otras palabras, estaban llevando a cabo experimentos sobre el dominio de la información global.

Los experimentos se basan en una determinada plataforma que combina inteligencia artificial, computación en la nube y datos de varios sensores y cámaras.

Todo esto le da al Pentágono la capacidad de predecir ciertos eventos en unos pocos días. Por supuesto, todo es muy arbitrario y relativo, pero parece funcionar.

“El sistema basado en aprendizaje automático monitorea los cambios en los datos sin procesar en tiempo real que indican problemas potenciales. Por ejemplo, si las imágenes satelitales muestran signos de que el submarino de un país rival se está preparando para abandonar el puerto, la IA puede marcar esta movilización, sabiendo que es probable que el barco parta pronto. Los analistas militares pueden tardar horas o incluso días en analizar esta información, y la tecnología GIDE puede enviar una alarma en segundos”. Afirma Glen VanHerck, General de la Fuerza Aérea de los Estados Unidos

Los militares señalan que un sistema de este tipo podría ser útil para abordar los problemas sociales y civiles ordinarios.

Al mismo tiempo, para las necesidades militares, la plataforma se puede lanzar por completo en un futuro previsible.

Vanherk espera que, en el próximo ejercicio global, en la primavera de 2022, el sistema se pueda utilizar por completo.


Elvis Suarez25/07/2021
NEO-QLED.jpg

2min830

Samsung Electronics lanza la línea 2021 Neo QLED que tiene los mejores avances tecnológicos en visualización realistas.

Las pantallas Quantum Mini LEDs revelan detalles de imagen precisos y sofisticados mientras mantienen un control preciso de la luz de fondo.

La línea 2021 Neo QLED destaca por tener tecnología Quantum Matrix, la cual aprovecha la gradación perfeccionada de 12 bits para un mayor control de la fuente de luz.

Además, posee un potente procesador Neo Quantum de Samsung y sus recursos de upscaling de IA.

Dicho recurso IA cuenta con 16 redes neuronales multimodales funcionando al mismo tiempo.

Lo cual permite el funcionamiento de una tecnología aprendizaje profundo que imitan el motor de aprendizaje y memoria humano.

En cuanto al upscaling, se puede decir que aumentan con precisión el contenido en función de múltiples factores como la resolución, los bordes, los detalles y los niveles de ruido.

Sus 16 redes neuronales multimodales hacen upscale de contenido de transmisión SD, videos HD en servicios de streaming o incluso contenido FHD de discos Blu-ray.


Elvis Suarez22/07/2021
Artifcial-Intelligence.jpg

1min570

Este libro es una excelente manera de entrar al mundo y usos de la Inteligencia Artificial.

Aunque forma parte de una gran colección de Harvard, lo puedes encontrar disponibles a través de Amazon.

De acuerdo con la reseña de HBR, el libro también explica la importancia de usar IA en los negocios de todos los tamaños.

Además, explica cómo apostar por la digitalización y muestra consejos para preparar a tus equipos sobre los cambios que genera en las organizaciones y mercados.

“Le brinda el pensamiento más esencial sobre la IA y explica cómo lanzar las iniciativas correctas en su empresa para aprovechar la oportunidad de la revolución de esta tecnología”, indica la reseña.



NewsTech reúne el alcance global de noticias tecnológicas las 24 horas, los 7 días de la semana, brindando cobertura y análisis, sobre las tendencias, tecnologías y oportunidades que son importantes para personas interesadas en mantenerse al día, con los avances del mundo digital.


contacto@newstechlive.com

+56993921697