Hace unos días les dejé una barajita en la que comentaba de dónde se pueden sacar ciudades y países del mundo en un formato actualizado. Ver el
siguiente enlace.
Estuve intentando llevar esta info a mi BD. Descargué del
siguiente enlace los archivos
allCountries.zip y
countryInfo.txt que contienen las ciudades y países respectivamente.
El problema se presentó al llevar esta info a una BD, debía procesar los archivos, que tienen un montón de data que no me interesaba, y convertirla a queries.
Aquí les dejo un script que creé que extrae información de ambos archivos y genera los scripts
city.sql y
country.sql para PostgreSQL.
#!/bin/bash
####################
# List interest fields (cities - city.sql)
# $1 - geonameid : integer id of record in geonames database
# $2 - name : name of geographical point (utf8) varchar(200)
# $9 - country code : ISO-3166 2-letter country code, 2 characters
# $18 - timezone : the timezone id (see file timeZone.txt)
# DDL
echo "CREATE TABLE city(geonameid int, name varchar(200), country character(2), timezone varchar(100));" > city.sql
echo >> city.sql
# INSERTS
# 1. Search ' and replace for ''
# 2. Construct the query (look field separator \t and single quote variable _SQ)
sed "s:':'':g" allCountries.txt | awk -F "\t" -v _SQ="'" '{
print "INSERT INTO city(geonameid, name, country, timezone) VALUES(" \
$1 ", " _SQ $2 _SQ ", " _SQ $9 _SQ ", " _SQ $18 _SQ ");"
}' >> city.sql
####################
# List interest fields (countries - country.sql)
# $1 - ISO
# $5 - Country
# $6 - Capital
# $9 - Continent
# $16 - Languages
# $17 - geonameid
# DDL
echo "CREATE TABLE country(iso character(2), country varchar(200), capital varchar(200), continent character(2), languages varchar(200), geonameid int);" > country.sql
echo >> country.sql
# INSERTS
# 1. Discarting rows that begins with #
# 2. Search ' and replace for ''
# 3. Construct the query (look field separator \t and single quote variable _SQ)
grep -v "^#" countryInfo.txt | sed "s:':'':g" | awk -F "\t" -v _SQ="'" '{
print "INSERT INTO country(iso, country, capital, continent, languages, geonameid) VALUES(" \
_SQ $1 _SQ ", " _SQ $5 _SQ ", " _SQ $6 _SQ ", " _SQ $9 _SQ ", " _SQ $16 _SQ ", " $17 ");"
}' >> country.sql
####################
# List continents
# grep -v "^#" countryInfo.txt | awk -F "\t" '{ print $9 }' | sort | uniq -d
Se puede ver que el script se vale de las herramientas por excelencia para trabajar con flujos de datos en *nix, a saber:
GREP,
SED y
AWK. Espero sacar varias barajitas de este mismo artículo, como hice con
Chat p2p Netcat cifrado con OpenSSL.
De momento creo que es importante mencionar que los archivos fuente poseen la info en líneas, donde cada campo es separado por un TAB (\t). Para procesar esto utilicé AWK y para cada línea extraigo el campo de interés a través de su índice (su posición en la línea según cada TAB). Es muy común realizar procesos como este valiéndose de hojas de cálculo (Ej. Excel)... Se coloca toda la info en una hoja de cálculo y luego se arman los queries utilizando la función de concatenación. El problema está cuando se tiene un archivo muy pesado (como en este caso setecientos y pico de megas) y al abrir el mismo con Excel o Calc, el computador se cuelga.