He estado usando GitHub Copilot con nuestro código base de producción durante los últimos 4 meses, y estos son algunos de mis pensamientos:
Lo bueno:
Explica el código complejo: ha sido excelente para desglosar fragmentos de código complicados o lógica empresarial y explicarlos correctamente.
Pruebas unitarias: muy bueno escribiendo pruebas unitarias y generando rápidamente múltiples casos de prueba basados en escenarios.
Fragmentos de código: puede generar fácilmente fragmentos de código útiles para casos de uso de propósito general.
Soluciones de errores: Copilot es bueno para explicar errores en el código y brindar sugerencias para solucionarlos.
Lo no tan bueno:
Comprensión del contexto: Es difícil explicar el contexto a una herramienta GenAI, especialmente cuando nuestro código se distribuye en varios archivos/repositorios. Le cuesta comprender proyectos más grandes en los que se requieren cambios en varios archivos.
Sugerencias inexactas: A veces sugiere instalar bibliotecas npm o usar métodos de paquetes npm que no existen. Esto se llama alucinación, donde el código generado por IA parece convincente pero es completamente incorrecto.
Código complejo: Ocasionalmente, el código que genera es confuso y complejo, lo que dificulta la depuración. En esos momentos, desearía haber escrito la lógica yo mismo y dejar que Copilot verificara si había errores o fallas.
En general, GitHub Copilot ha sido una herramienta útil, pero tiene sus peculiaridades. Cuando se utilizan modelos de lenguaje grandes, la responsabilidad siempre recae en el programador.
Descargo de responsabilidad: Todos los recursos proporcionados provienen en parte de Internet. Si existe alguna infracción de sus derechos de autor u otros derechos e intereses, explique los motivos detallados y proporcione pruebas de los derechos de autor o derechos e intereses y luego envíelos al correo electrónico: [email protected]. Lo manejaremos por usted lo antes posible.
Copyright© 2022 湘ICP备2022001581号-3