commit fd6547104cb9076752aa3050704dfc4b7e9801ea Author: Andrés Moran Date: Thu Oct 31 19:20:54 2024 +0100 First commit diff --git a/1.html b/1.html new file mode 100644 index 0000000..a818cc2 --- /dev/null +++ b/1.html @@ -0,0 +1,11 @@ + + + + Página 1 + + + Ir a página 2 +
+ Volver + + \ No newline at end of file diff --git a/2.html b/2.html new file mode 100644 index 0000000..0635933 --- /dev/null +++ b/2.html @@ -0,0 +1,11 @@ + + + + Página 2 + + + Ir a página 1 +
+ Volver + + \ No newline at end of file diff --git a/SQLConnection.py b/SQLConnection.py new file mode 100644 index 0000000..13fc856 --- /dev/null +++ b/SQLConnection.py @@ -0,0 +1,29 @@ +import mysql.connector +from mysql.connector import Error + +def insertar_usuario(nombre, edad): + try: + # Conectar a la base de datos + conexion = mysql.connector.connect( + host="localhost", # Cambia esto si usas otro host + user="tu_usuario", # Cambia esto por tu nombre de usuario + password="tu_contraseña", # Cambia esto por tu contraseña + database="tu_base_de_datos" # Cambia esto por el nombre de tu base de datos + ) + + if conexion.is_connected(): + cursor = conexion.cursor() + # Consulta SQL para insertar un registro + sql = "INSERT INTO usuarios (nombre, edad) VALUES (%s, %s)" + valores = (nombre, edad) + cursor.execute(sql, valores) + conexion.commit() # Guardar los cambios en la base de datos + print("Registro insertado con éxito") + + except Error as e: + print(f"Error al conectar o insertar en MySQL: {e}") + finally: + if conexion.is_connected(): + cursor.close() + conexion.close() + print("Conexión cerrada") \ No newline at end of file diff --git a/Scraping.py b/Scraping.py new file mode 100644 index 0000000..45c9ea3 --- /dev/null +++ b/Scraping.py @@ -0,0 +1,41 @@ +import requests +from bs4 import BeautifulSoup + +def extraer_enlaces(url): + try: + # Hacer una solicitud HTTP GET a la URL + respuesta = requests.get(url) + + # Verificar si la solicitud fue exitosa (código 200) + if respuesta.status_code == 200: + # Guardar el contenido HTML en una variable + contenido_html = respuesta.text + + # Usar BeautifulSoup para analizar el HTML + soup = BeautifulSoup(contenido_html, 'html.parser') + + # Extraer todos los enlaces (elementos ) + enlaces = [] + for enlace in soup.find_all('a', href=True): # Buscamos todas las etiquetas con el atributo href + enlaces.append(enlace['href']) # Guardar solo el valor del atributo href (el enlace) + + # Devolver la lista de enlaces + return enlaces + else: + print(f"Error al acceder a la URL: {respuesta.status_code}") + return [] + + except requests.exceptions.RequestException as e: + print(f"Error durante la solicitud HTTP: {e}") + return [] + +# Ejemplo de uso +url = 'https://example.com' # Cambia esto por la URL de la que quieras extraer enlaces +enlaces_encontrados = extraer_enlaces(url) + +if enlaces_encontrados: + print("Enlaces encontrados:") + for enlace in enlaces_encontrados: + print(enlace) +else: + print("No se encontraron enlaces o hubo un problema.") \ No newline at end of file diff --git a/index.html b/index.html new file mode 100644 index 0000000..cf1c6dd --- /dev/null +++ b/index.html @@ -0,0 +1,9 @@ + + + + Inicio + + + Ir a página 1 + + \ No newline at end of file