First commit

This commit is contained in:
Andrés Moran 2024-10-31 19:20:54 +01:00
commit fd6547104c
5 changed files with 101 additions and 0 deletions

11
1.html Normal file
View File

@ -0,0 +1,11 @@
<html lang="es">
<head>
<meta charset="UTF-8">
<title>Página 1</title>
</head>
<BODY>
<a href="2.html">Ir a página 2</a>
<br>
<a href="index.html">Volver</a>
</BODY>
</html>

11
2.html Normal file
View File

@ -0,0 +1,11 @@
<html lang="es">
<head>
<meta charset="UTF-8">
<title>Página 2</title>
</head>
<BODY>
<a href="1.html">Ir a página 1</a>
<br>
<a href="index.html">Volver</a>
</BODY>
</html>

29
SQLConnection.py Normal file
View File

@ -0,0 +1,29 @@
import mysql.connector
from mysql.connector import Error
def insertar_usuario(nombre, edad):
try:
# Conectar a la base de datos
conexion = mysql.connector.connect(
host="localhost", # Cambia esto si usas otro host
user="tu_usuario", # Cambia esto por tu nombre de usuario
password="tu_contraseña", # Cambia esto por tu contraseña
database="tu_base_de_datos" # Cambia esto por el nombre de tu base de datos
)
if conexion.is_connected():
cursor = conexion.cursor()
# Consulta SQL para insertar un registro
sql = "INSERT INTO usuarios (nombre, edad) VALUES (%s, %s)"
valores = (nombre, edad)
cursor.execute(sql, valores)
conexion.commit() # Guardar los cambios en la base de datos
print("Registro insertado con éxito")
except Error as e:
print(f"Error al conectar o insertar en MySQL: {e}")
finally:
if conexion.is_connected():
cursor.close()
conexion.close()
print("Conexión cerrada")

41
Scraping.py Normal file
View File

@ -0,0 +1,41 @@
import requests
from bs4 import BeautifulSoup
def extraer_enlaces(url):
try:
# Hacer una solicitud HTTP GET a la URL
respuesta = requests.get(url)
# Verificar si la solicitud fue exitosa (código 200)
if respuesta.status_code == 200:
# Guardar el contenido HTML en una variable
contenido_html = respuesta.text
# Usar BeautifulSoup para analizar el HTML
soup = BeautifulSoup(contenido_html, 'html.parser')
# Extraer todos los enlaces (elementos <a>)
enlaces = []
for enlace in soup.find_all('a', href=True): # Buscamos todas las etiquetas <a> con el atributo href
enlaces.append(enlace['href']) # Guardar solo el valor del atributo href (el enlace)
# Devolver la lista de enlaces
return enlaces
else:
print(f"Error al acceder a la URL: {respuesta.status_code}")
return []
except requests.exceptions.RequestException as e:
print(f"Error durante la solicitud HTTP: {e}")
return []
# Ejemplo de uso
url = 'https://example.com' # Cambia esto por la URL de la que quieras extraer enlaces
enlaces_encontrados = extraer_enlaces(url)
if enlaces_encontrados:
print("Enlaces encontrados:")
for enlace in enlaces_encontrados:
print(enlace)
else:
print("No se encontraron enlaces o hubo un problema.")

9
index.html Normal file
View File

@ -0,0 +1,9 @@
<html lang="es">
<head>
<meta charset="UTF-8">
<title>Inicio</title>
</head>
<BODY>
<a href="1.html">Ir a página 1</a>
</BODY>
</html>