Hay tantas herramientas de edición de documentos en el mercado, pero solo algunas son compatibles con todos los formatos de archivo. Algunas herramientas son, por otro lado, versátiles pero difíciles de usar. DocHub proporciona la respuesta a estos desafíos con su editor basado en la nube. Ofrece ricas funcionalidades que te permiten completar tus tareas de gestión de documentos de manera eficiente. Si necesitas Negar rápidamente URL en Csv, ¡DocHub es la elección ideal para ti!
Nuestro proceso es muy fácil: importas tu archivo Csv a nuestro editor → se transforma instantáneamente en un formato editable → realizas todos los cambios esenciales y lo actualizas profesionalmente. Solo necesitas unos minutos para completar tu trabajo.
Tan pronto como se apliquen todas las modificaciones, puedes transformar tu documentación en una plantilla multiusos. Solo necesitas ir al Menú del lado izquierdo de nuestro editor y hacer clic en Acciones → Convertir en Plantilla. Encontrarás tu documentación almacenada en una carpeta separada en tu Tablero, ahorrándote tiempo la próxima vez que necesites el mismo formulario. ¡Prueba DocHub hoy!
hola a todos, como pueden ver hoy vamos a extraer una lista de urls de un csv y mi suscriptor quiere extraer el texto de todas las páginas de todos los sitios, así que dice que todos los datos que realmente busca son todos los textos. ¿Cómo puedo extraer todas las páginas y subpáginas de la lista de urls en el csv? He encontrado un método, pero eso solo funciona para una página de inicio. ¿Puede alguien reprogramar y decirme cómo extraer todos los datos de a un sitio web? Ya que no podemos usar xpath para cada url, en realidad le proporcioné esto originalmente y, um, con beautiful soup funcionó bien, sin problema. El problema era que él quería el texto de todas las páginas y no solo de la primera página. Así que lo que he hecho en su lugar es otra cosa, no puedo realmente pensar en otra idea, así que si les gustaría ver eso, um, esta es la lista de urls, así que no quiero mostrarlas demasiado de cerca para no revelar el juego, pero, um, tenemos uh 469 urls um, en realidad he sido un poco astuto y he usado vim para eliminar