Logotipo de Zephyrnet

¿De quién es la línea de todos modos, GitHub? Algunos consejos para desarrolladores

Fecha:

Opinión Fuente abierta. Está abierto. Usted puede mirar. Sobre todo, puedes usar. Hay una pista en el nombre. No tan rápido, afirma una demanda colectiva presentada contra Microsoft, OpenAI y GitHub. Copilot, un bot de sugerencias capacitado en código abierto y alimentado por IA en IDE, funciona ofreciendo líneas de código a los programadores, y eso, alega la demanda colectiva, rompe las reglas y está siendo astuto al tratar de ocultarlo. Un juez ha dictaminado que algunos de los reclamos merecen su día en la corte. Querido señor, no otra batalla de derechos de autor.

La tecnología puede parecer muy extraña para los jueces. Digamos que compras legalmente un libro electrónico. ¿Cómo lo conseguiste? Los enrutadores y los servidores de almacenamiento en caché hacen copias del libro a medida que se entregan, pero no han pagado ni un centavo. ¿Los propietarios de la infraestructura de Internet violan los derechos de autor miles de millones de veces al día? Puede pensar que es una pregunta tonta, pero molestó lo suficiente a la Corte Suprema del Reino Unido como para ir a Europa a preguntar "¿Es esto Internet realmente legal??” No seas tan jodidamente tonto, fue la respuesta. Echamos de menos Europa.

Queda por ver cuántos de los reclamos contra Microsoft, Copilot y el indicador de código de OpenAI caerán en la maldita caja tonta. Nadie previó que la IA ingiera bases de datos globales de código fuente abierto cuando se escribieron las reglas. Por otra parte, nadie previó que los motores de búsqueda ingirieran, analizaran y presentaran al por mayor todo el contenido. Eso ciertamente tiene sus problemas, pero el consenso es que es demasiado útil y no lo suficientemente dañino como para prohibirlo. Copilot y otros sistemas de aprendizaje automático que se alimentan de contenido de Internet son muy parecidos en ese sentido a los motores de búsqueda. Entonces, la pregunta es, ¿el resultado no es lo suficientemente útil o demasiado dañino para aceptarlo? ¿Dónde está el equilibrio de intereses?

Hay formas útiles de abordar los problemas, e involucran (la gerencia corporativa ahora mira hacia otro lado) la ética. Sí, de verdad, esa breve charla de moda sobre la IA ética ofrece una forma concreta de avanzar que funcionará mucho mejor que las demandas.

Deformado como está por intereses especiales, el corazón de la ley de propiedad intelectual es que se respeten los deseos razonables del creador. Si el software es de código abierto, entonces el creador razonablemente desea que las personas puedan leerlo y ponerlo en uso. Algo que fomente esto no parece el peor pecado del mundo.

Tal vez sea la forma en que lo hace, presentando las sugerencias de código fuera de contexto. Hay muchas licencias de código abierto, después de todo, y algunas pueden contener condiciones que nuestro feliz copiloto debería conocer. Bueno, suponiendo que Copilot pueda reconocer cuando está sugiriendo el código de otra persona, no es descabellado que pueda informar las condiciones de licencia bajo las que se ofrece. Eso pone la responsabilidad sobre el codificador de cumplir, lo cual es más ético que ofrecer la tentación mientras se ocultan las consecuencias. Incluso podría mejorar la tasa de aciertos para seguir las reglas de código abierto.

¿Qué pasa si el codificador original realmente no quiere que sus cosas pasen por las entrañas de Copilot? El mundo de los motores de búsqueda abordó eso con la invención de robots.txt. Coloque un archivo con ese nombre en el directorio raíz de su web y colocará un cartel de "Prohibido el ingreso" para los rastreadores web. Las cosas están un poco más avanzadas en estos días, por lo que sería bueno poner ese tipo de función en la estructura de GitHub con cualquier tipo de ajuste fino que exprese mejor la intención del creador. En cualquier caso, decirle a los proveedores de contenido: “¿No quieres que tus cosas aparezcan en nuestros resultados de búsqueda? Bien." ha tendido a centrar la mente en formas de vivir con ella. ¿Dar opciones a las personas mientras se explican las consecuencias? Lindo.

Incluso si dar a las personas el derecho de eliminar su código de Copilot y similares da como resultado que desaparezcan un montón de cosas buenas, ese no es el fin del mundo. Está el “principio de la sala limpia”, que destrozó la posición dominante de IBM en la década de 1980 mientras aceleraba el mercado como un loco. Esto es algo de lo que el aprendizaje automático podría aprender mucho.

La PC original de IBM era casi completamente de código abierto. IBM publicó un manual técnico con diagramas de circuitos completos, todos utilizando chips estándar conectados entre sí de manera estándar que los fabricantes de chips regalaron de forma gratuita. Diseñar un clon de IBM PC funcionalmente equivalente (pero sin derechos de autor) era algo que miles de ingenieros electrónicos podían hacer, y cientos lo hicieron.

La mina terrestre legal en el cuadro beige era el BIOS, el sistema básico de entrada y salida, una porción relativamente pequeña de software permanente que proporcionaba un conjunto estándar de servicios de hardware a los sistemas operativos y aplicaciones a través de interrupciones, lo que hoy se llamaría una API. Si acaba de copiar ese código para su clon, IBM lo haría funcionar correctamente. Podrías reescribir el código, pero IBM podría involucrarte en juicios para que demuestres que no copiaste nada de él. Incluso si ganaras, la demora y los gastos te hundirían.

Cue la sala limpia. Los clonadores contrataron codificadores que nunca habían leído una línea del BIOS de IBM y les prohibieron hacerlo. A estos programadores se les dio la API, que no tenía derechos de autor, y se les dijo que escribieran según esa especificación. Con las atestaciones legales, los clonadores estaban felices de jurar en la corte, el principio de que no puedes copiar lo que no has visto se mantuvo, y la última parte del rompecabezas en Clone Wars original estaba en su lugar. El hecho de que las API proporcionen un antídoto tan poderoso contra los derechos de autor ha llevado a muchos a intentar cambiar su estado legal, más recientemente Google contra Oracle. Eso terminó en la Corte Suprema de los Estados Unidos donde, como todos los demás, fracasó.

Entonces, tome dos sistemas automatizados, uno dedicado a encontrar y aislar interfaces dentro del código y otro dedicado a aplicar reglas para generar código que proporcione esas interfaces. No hay transferencia de líneas de código a través del espacio de aire virtual. La prueba automatizada del código original frente a la IA aumentaría la calidad. De paso, nacería un conjunto muy fino de herramientas para la refactorización, en beneficio de todos. Suena ético, ¿verdad?

Ahí lo tenemos. Si hay problemas genuinos con lo que está haciendo Copilot, existen múltiples formas de evitarlos mientras se preserva la utilidad y se crean nuevos beneficios. ¿Jugar con las reglas mientras se mejoran las cosas? Esa es una buena línea a seguir. ®

punto_img

Información más reciente

punto_img