First commit
This commit is contained in:
commit
fd6547104c
|
@ -0,0 +1,11 @@
|
|||
<html lang="es">
|
||||
<head>
|
||||
<meta charset="UTF-8">
|
||||
<title>Página 1</title>
|
||||
</head>
|
||||
<BODY>
|
||||
<a href="2.html">Ir a página 2</a>
|
||||
<br>
|
||||
<a href="index.html">Volver</a>
|
||||
</BODY>
|
||||
</html>
|
|
@ -0,0 +1,11 @@
|
|||
<html lang="es">
|
||||
<head>
|
||||
<meta charset="UTF-8">
|
||||
<title>Página 2</title>
|
||||
</head>
|
||||
<BODY>
|
||||
<a href="1.html">Ir a página 1</a>
|
||||
<br>
|
||||
<a href="index.html">Volver</a>
|
||||
</BODY>
|
||||
</html>
|
|
@ -0,0 +1,29 @@
|
|||
import mysql.connector
|
||||
from mysql.connector import Error
|
||||
|
||||
def insertar_usuario(nombre, edad):
|
||||
try:
|
||||
# Conectar a la base de datos
|
||||
conexion = mysql.connector.connect(
|
||||
host="localhost", # Cambia esto si usas otro host
|
||||
user="tu_usuario", # Cambia esto por tu nombre de usuario
|
||||
password="tu_contraseña", # Cambia esto por tu contraseña
|
||||
database="tu_base_de_datos" # Cambia esto por el nombre de tu base de datos
|
||||
)
|
||||
|
||||
if conexion.is_connected():
|
||||
cursor = conexion.cursor()
|
||||
# Consulta SQL para insertar un registro
|
||||
sql = "INSERT INTO usuarios (nombre, edad) VALUES (%s, %s)"
|
||||
valores = (nombre, edad)
|
||||
cursor.execute(sql, valores)
|
||||
conexion.commit() # Guardar los cambios en la base de datos
|
||||
print("Registro insertado con éxito")
|
||||
|
||||
except Error as e:
|
||||
print(f"Error al conectar o insertar en MySQL: {e}")
|
||||
finally:
|
||||
if conexion.is_connected():
|
||||
cursor.close()
|
||||
conexion.close()
|
||||
print("Conexión cerrada")
|
|
@ -0,0 +1,41 @@
|
|||
import requests
|
||||
from bs4 import BeautifulSoup
|
||||
|
||||
def extraer_enlaces(url):
|
||||
try:
|
||||
# Hacer una solicitud HTTP GET a la URL
|
||||
respuesta = requests.get(url)
|
||||
|
||||
# Verificar si la solicitud fue exitosa (código 200)
|
||||
if respuesta.status_code == 200:
|
||||
# Guardar el contenido HTML en una variable
|
||||
contenido_html = respuesta.text
|
||||
|
||||
# Usar BeautifulSoup para analizar el HTML
|
||||
soup = BeautifulSoup(contenido_html, 'html.parser')
|
||||
|
||||
# Extraer todos los enlaces (elementos <a>)
|
||||
enlaces = []
|
||||
for enlace in soup.find_all('a', href=True): # Buscamos todas las etiquetas <a> con el atributo href
|
||||
enlaces.append(enlace['href']) # Guardar solo el valor del atributo href (el enlace)
|
||||
|
||||
# Devolver la lista de enlaces
|
||||
return enlaces
|
||||
else:
|
||||
print(f"Error al acceder a la URL: {respuesta.status_code}")
|
||||
return []
|
||||
|
||||
except requests.exceptions.RequestException as e:
|
||||
print(f"Error durante la solicitud HTTP: {e}")
|
||||
return []
|
||||
|
||||
# Ejemplo de uso
|
||||
url = 'https://example.com' # Cambia esto por la URL de la que quieras extraer enlaces
|
||||
enlaces_encontrados = extraer_enlaces(url)
|
||||
|
||||
if enlaces_encontrados:
|
||||
print("Enlaces encontrados:")
|
||||
for enlace in enlaces_encontrados:
|
||||
print(enlace)
|
||||
else:
|
||||
print("No se encontraron enlaces o hubo un problema.")
|
|
@ -0,0 +1,9 @@
|
|||
<html lang="es">
|
||||
<head>
|
||||
<meta charset="UTF-8">
|
||||
<title>Inicio</title>
|
||||
</head>
|
||||
<BODY>
|
||||
<a href="1.html">Ir a página 1</a>
|
||||
</BODY>
|
||||
</html>
|
Loading…
Reference in New Issue