Al analizar el reciente debate sobre cómo Open y Google logran que sus datos se ajusten al modelo, notará que dos términos dominan más el debate: open y Google. Los artículos publicados recientemente en The Wall Street Journal y el NY Times ilustran que la forma en que las empresas relacionadas con la IA recopilan datos no estaba a la altura y creó un dolor de cabeza sobre qué datos son verdaderos y qué ángulo ético se utilizó en la creación del sistema relacionado con la IA. .

Las tácticas cuestionables de OpenAI

Sin embargo, en su apogeo, el New York Times destacó los resultados más importantes de la IA abierta expuestos con Whisper. Este modelo de transcripción de audio a texto es avanzado como complemento de la tecnología LP-4 del procesador de lenguaje Open AI. De hecho, el vehículo autónomo de OpenAI no se limita a la recopilación de información, que es un tema difícil con el que se enfrenta la empresa; más bien, este último entra en juego en tales condiciones.

Aunque la popularidad inicial de las leyes de recopilación de datos estuvo relacionada con consideraciones de uso legítimo de los derechos de autor, estas últimas también se convirtieron en una base legal para estas leyes. Como dijo Brockman, uno de los miembros fundadores y director ejecutivo de OpenAI proporcionó la información necesaria para la transcripción. Sin embargo, continúa diciendo que el historiador también contribuyó a la transcripción.

Sin embargo, Google Corporation está pasando a ocupar un lugar central incluso en estos pequeños problemas para empresas más grandes como esta, es decir, una función de recopilación de datos como OpenAI es una organización más pequeña y participa en proyectos que están orientados al gigante de la industria, y el usuario solo fue advertido. y no se le dijo a quién debía culpar YouTube.

Además de este enfoque, Facebook también cubrió el cumplimiento de los TOS y prohibió las acciones no autorizadas, especialmente el llamado data scraping. En el caso de John Conly (portavoz de YouTube), respondió a la pregunta de si los modelos se utilizaban para el entrenamiento de IA basado en contenidos después de recopilar datos de los creadores de contenidos.

De lo contrario. Además de entrenar a las máquinas sobre de qué lado Meta es un problema actual que conduce a su inviabilidad. El grupo de IA de la firma, que tuvo éxito con la rivalidad OpenAI, consideró que ambos equipos utilizaron todos los medios disponibles para trabajar en un mejor resultado para sus empresas, incluido el pensamiento original sin prestar atención a ningún asunto a favor de la parte rechazada.

Meta parece haber preparado tipos de preguntas que apuntaban a tener su respuesta en qué trabajo delegado se hará, quién se encargará de comprar los libros y qué editoriales especializadas en campos específicos. Aunque la experiencia del usuario de la red es extremadamente sorprendente, la política gubernamental establecida ha tomado la iniciativa de inmiscuirse en la privacidad individual, lo que se destacó en 2018 con el asunto Cambridge Analytica.

El panorama más amplio del entrenamiento de IA se enfrenta a un dilema apremiante: por un lado, la cuestión de la escasez de datos se ha agudizado en los últimos años y por el otro. Si bien la conexión entre los dos permanece, los investigadores siempre insisten en tener datos adecuados para mejorar la precisión y el rendimiento.

También despierta entusiasmo la predicción del Wall Street Journal, que proyecta subidas más allá de todos los objetivos hasta principios del año 2020 y cruza el final de año con el punto más alto del mercado. Este método se basa en dos factores: confiar en los modelos, que pueden ser sintéticos para expresar una matriz externa, y un plan de estudios del proceso de toma de decisiones, donde los modelos aprenden de sus decisiones. No espere que produzcan resultados, pero permita que sean observables.

Implicaciones legales y éticas

La ausencia de una norma sobre piratería podría traer problemas porque nada puede permitir a los usuarios acceder a los elementos protegidos por derechos de autor, y podría surgir una comprensión de la misión en torno a la ley, la ética, etc. ¿Se convierten los datos en una propiedad intangible y en la base para saber y declarar qué es suyo y qué? no lo es, ¿en qué datos y usuario se sabe que son la fuente del negocio cuando el uso de esos datos no está justificado? Este riesgo sería que los líderes del programa del equipo de I+D se concentraran en revisarlos y encontrar respuestas.

La relación en el propósito de las campañas de demanda colectiva implicaría que la privacidad y el uso de datos son respuestas que la organización no conoce lo suficiente como para legitimar sus operaciones. De hecho, los desafíos (como las cuestiones éticas relacionadas con el proceso de extracción de datos utilizados para la investigación y el desarrollo de la IA) se vuelven complicados porque tenemos que considerar las restricciones regulatorias y la privacidad de los datos (ya que la naturaleza de los datos está dentro del contexto). de cómo se procesan y utilizan los datos).

La competencia de IA más dura del futuro radica en identificar los mejores datos para el entrenamiento de los sistemas de IA y, más aún, en si dichos datos se someterán a marcos regulatorios éticos o legales comunes. Todo lo relacionado con la IA, por su propia naturaleza, enfatiza y amplía conceptos como la innovación y la implementación a través de filtros de conjuntos de datos para las empresas.

Al ser una Inteligencia Artificial tecnológica nunca es estática, por lo que el principal problema siempre será el uso de datos, y seguirá siendo una de las prioridades de los miembros de la comunidad que se forman a través del uso de la Inteligencia Artificial, los mejores.

Historia original de: https://www.nytimes.com/2024/04/06/technology/tech-giants-harvest-data-artificial-intelligence.html?smid=nytcore-ios-share&sgrp=c-cb