GPT-2 Un modelo de inteligencia artificial mejor escrito por ti GPT-2 Definir el host

El comienzo del cambio

Se habla mucho del tema de la inteligencia artificial, cómo ha cambiado nuestra forma de vida, GPT-2 es una revolución en este campo porque es un modelo que permite la construcción de texto sobre el modelo de inteligencia artificial creado por OpenAI, principalmente GPT - hecho posible. 2 es un modelo de lenguaje que utiliza el aprendizaje automático para predecir un conjunto específico de palabras, pero antes de sumergirnos en más temas, veamos las capacidades de GPT-2. Con este modelo haré esto, usando la página talktotransformer.com, cargando el modelo GPT-2 con una interfaz amigable en la cual puedes ingresar una pequeña muestra de texto para que el modelo sepa que necesita generar texto en este caso. Lo uso como entrada para este párrafo:

La investigación estableció que los ingresos del imputado Macías Tubilla no eran solventes y las autoridades determinaron que el imputado Macías Tubilla había acumulado 2.4 millones de pesos por fraude fiscal.

El texto del resultado después de editar el modelo se ve así:

La investigación estableció que los ingresos del imputado Macías Tubilla no eran solventes y las autoridades determinaron que el imputado Macías Tubilla había acumulado 2.4 millones de pesos por fraude fiscal. Tubila, quien cumplió 24 años el domingo, dijo que no tenía conocimiento del fraude fiscal descubierto por las autoridades en cinco estados en agosto de 2016. Fue acusada de defraudar al Servicio de Impuestos Internos por alrededor de $ 1 millón. Tubila se encuentra actualmente detenido en la prisión de Palo Alto con una fianza de $ 3,75 millones. Después de que el presidente de Estados Unidos, Donald Trump, emitiera una visa especial de inmigrante, la mujer india lleva nueve meses en Estados Unidos.

openai-releases-gpt-2

Como hemos visto, el modelo es muy preciso y puede crear textos muy consistentes sobre el tema que estamos describiendo, y aunque actualmente solo está disponible en inglés, este tipo de texto que se procesa en lenguaje natural es el modelo GTP, todavía bastante impresionante. -2 puede hacer más cosas como traducir, resumir e incluso responder preguntas sobre el texto.

GPT-2 y el tema de las fake news

Cuando OpenAI se dio cuenta de que su modelo era tan bueno que decidió acotar el modelo para ser publicado en github, provocó una reacción negativa en la comunidad de inteligencia artificial, ya que estaba en contra de la idea que la empresa debería tener; solo quieres ganar popularidad creando miedo entre los lugareños. OpenAI continúa con su estrategia y lanza versiones más potentes de sus modelos, y cada versión tiene más parámetros. Lanzaron un total de 4 versiones subordinadas. Veamos un ejemplo de por qué OpenAI le teme a su modelo. Bravo El texto que ingresamos y el texto subrayado es el texto utilizado para generar el modelo GPT-2:

Falso nuevo


Harvey Weinstein (Harvey Weinstein) es un director poderoso que inició un movimiento mundial debido a la eliminación de la conducta sexual inapropiada. Después de que seis mujeres declararan que habían sido maltratadas, fue condenado por dos delitos sexuales graves.

El fiscal dijo que Weinstein irrumpió en la casa de la actriz Ashley Judd en 2003 y 2004. Otra mujer, que era una actriz ambiciosa, dijo que la atacó en una habitación de hotel mientras una tercera mujer lo acusó de violación.

En lugar de centrarse en las acusaciones de acoso y agresiones sexuales desenfrenadas en Hollywood, el fiscal dijo que, en cualquier caso, Weinstein no usó sus poderes para intimidar a las mujeres, sino que usó su reputación para concertar reuniones con actrices.

Ves que el modelo tiene un gran potencial de falsificación y ves que aunque no haya una versión final, porque OpenAI no quiere publicar el modelo en su totalidad, pero el tiempo pasa. OpenAI lanzó la versión completa en febrero de 2019. La versión tiene 1.500 millones de parámetros. Esto sucedió después de que se dieron cuenta de que además de publicar todo el código en la plataforma Github, existe un modelo de lenguaje mejor que ellos. Publica varios documentos que explican en detalle cómo funcionan y cómo están diseñados para su modelo de lenguaje.

github-ki

¿Se puede reconocer el texto generado por GTP-2?

Afortunadamente, cuando OpenAI lance la versión GTP-2 de hug face, la compañía de programación de lenguaje neuronal lanzará una demostración del detector de texto generado por GTP-2. El ejemplo funciona escribiendo el texto que desea verificar y luego proporcionándole algo de texto. El porcentaje aproximado de verdadero y falso es correcto en la mayoría de los casos, aunque debe tenerse en cuenta que cuanto mayor sea la muestra de texto de análisis, mayor es la confiabilidad de el porcentaje, que suele ser casi el 99%, por lo que muchas empresas están en contra: OpenAI no publica código, ya que empresas como Hugface han creado herramientas liberando código que confía en la comunidad de inteligencia artificial.


Vistas de publicaciones:
71

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir
error: Content is protected !!