Muestra cómo crear y administrar clústeres de Amazon Redshift.  HTML | PDF | Kindle

Explica cómo diseñar, desarrollar, consultar y mantener las bases de datos que componen su almacén de bases de datos. También incluye sintaxis para las funciones y los comandos SQL de Amazon Redshift.  HTML | PDF

Describe de forma detallada todas las operaciones de las API para Amazon Redshift. También incluye ejemplos de solicitudes, respuestas y errores de los protocolos de servicios web soportados.  HTML | PDF

Describe de forma detallada la interfaz de línea de comandos para Amazon Redshift. Proporciona ejemplos de uso, opciones y sintaxis básica para cada comando.  HTML


Retransmisión web de AWS que trata las prácticas recomendadas para cargar datos y optimizar el desempeño de las consultas en Amazon Redshift.  Ver la parte 1 del vídeo | Ver la parte 2 del vídeo

Cargue sus datos de forma eficiente mediante comandos COPY, inserciones en lotes y tablas intermedias.  Más información »

Diseñe su base de datos para lograr un alto desempeño en la consulta, con bajos requisitos de almacenamiento y memoria, y las mínimas operaciones E/S.  Más información »

Ajuste sus consultas para lograr el máximo desempeño siguiendo estos consejos y tácticas.  Más información »


Scripts SQL para ejecutar diagnósticos en su clúster de Amazon Redshift mediante tablas del sistema.  Descargar aquí »

Lista de scripts:

  • top_queries.sql – devuelve las 50 declaraciones que más tiempo han consumido los últimos 7 días
  • perf_alerts.sql – devuelve los principales casos de alertas junto a escaneados de tablas
  • filter_used.sql – devuelve el filtro aplicado a las tablas al escanear. Para ayudar en la elección de sortkey
  • commit_stats.sql – muestra información sobre el consumo de recursos de clúster mediante declaraciones COMMIT
  • current_session_info.sql – muestra información acerca de las sesiones con las consultas en ejecución en ese momento
  • missing_table_stats.sql – muestra los planes EXPLAIN que marcaron "missing statistics" en las tablas subyacentes
  • queuing_queries.sql – lista las consultas en espera en una ranura WLM
  • table_info.sql – devuelve información de almacenamiento de la tabla (tamaño, sesgo, etc.)

Vistas de SQL para administrar su clúster de Amazon Redshift y generar el DDL Schema. Todas las vistas suponen que dispone de un esquema llamado Admin.  Descargar aquí »

Lista de vistas:

  • v_check_data_distribution.sql – obtiene la distribución de datos entre las porciones
  • v_constraint_dependency.sql – obtiene las limitaciones de la clave extranjera entre tablas
  • v_generate_group_ddl.sql – obtiene el DDL de un grupo
  • v_generate_schema_ddl.sql – obtiene el DDL de esquemas
  • v_generate_tbl_ddl.sql – obtiene el DDL de una tabla, contiene distkey, sortkey y constraints
  • v_generate_unload_copy_cmd.sql – genera comandos de descarga y copia de un objeto
  • v_generate_user_object_permissions.sql – obtiene el DDL de los permisos de usuario para tablas y vistas
  • v_generate_view_ddl.sql – obtiene el DDL de una vista
  • v_get_obj_priv_by_user.sql – obtiene la tabla/vistas a las que un usuario tiene acceso
  • v_get_schema_priv_by_user.sql – obtiene el esquema al que un usuario tiene acceso
  • v_get_tbl_priv_by_user.sql – obtiene las tablas a las que un usuario tiene acceso
  • v_get_users_in_group.sql – obtiene todos los usuarios de un grupo
  • v_get_view_priv_by_user.sql – obtiene las vistas a las que un usuario tiene acceso
  • v_object_dependency.sql – combina las distintas vistas de dependencia
  • v_space_used_per_tbl.sql – espacio usado por tabla
  • v_view_dependency.sql – obtiene nombres de vistas que dependen de otras tablas/vistas
  • v_check_transaction_locks.sql – obtiene información sobre bloqueos en transacción abiertas
  • v_check_wlm_query_time.sql – obtiene el tiempo de espera de WLM y el tiempo de ejecución de los últimos 7 días
  • v_check_wlm_query_trend_daily.sql – obtiene el conteo de consultas WLM, el tiempo de espera y el tiempo de ejecución por día
  • v_check_wlm_query_trend_hourly.sql – obtiene el conteo de consultas WLM, el tiempo de espera y el tiempo de ejecución por hora
  • v_generate_cancel_query.sql – obtiene la cancelación de una consulta
  • v_get_cluster_restart_ts.sql – obtiene la fecha y hora en que se reinició recientemente el clúster
  • v_get_vacuum_details.sql – obtiene detalles del vacío

Determine la compresión óptima para sus datos de Amazon Redshift con esta aplicación.  Descargar aquí »

Migre datos fácilmente entre dos tablas de Amazon Redshift que pueden estar en bases de datos, clústeres o regiones distintos. Todos los datos exportados están cifrados con AWS Key Management Service (KMS). Puede emplear esta utilidad para complementar AWS Data Pipeline y trasladar con regularidad datos entre sistemas, por ejemplo, entre producción y prueba, o para mantener copias de solo lectura en otros clústeres.  Descargar aquí »


User-Defined Functions (UDF) habituales. Una colección de UDF útiles para todos. Aportación de Periscope.  Más información » | Descargar aquí »

Marco para el desarrollo de UDF.Para facilitar el desarrollo, Periscope ha creado un marco para la administración y prueba de UDF. Aportación de Periscope.  Descargar aquí »

re:Dash. Una plataforma de visualización y colaboración de código abierto gratuita que permite el acceso rápido y sencillo a miles de millones de registros. Entre sus características se incluyen un navegador de esquemas, la programación mejorada, la finalización automática y la escritura de consultas Python. Aportación de Everthing.me.  Descargar aquí »

Panel de administración de Amazon Redshift de EverythingMe. Supervise instancias en ejecución, colas WLM y sus tablas o esquemas con esta herramienta muy fácil de usar. Aportación de EverythingMe.  Descargar aquí »

Herramienta ETL de Yelp para Amazon Redshift. Utilice Mycroft de Yelp para cargar datos automáticamente en Amazon Redshift. Lea esta entrada del blog para obtener más información.  Descargar aquí »

Biblioteca Spark-Redshift. Utilice esta biblioteca para cargar datos de Amazon Redshift en DataFrames SQL de Apache Spark y para escribir datos de Apache Spark en Amazon Redshift. Un buen ejemplo de uso de ingestión AVRO con Amazon Redshift. Aportación de Swiftkey.  Descargar aquí »


Tenemos un nutrido conjunto de artículos de blog que ofrece casos de uso y orientación de prácticas recomendadas que lo ayudan a obtener el máximo provecho de Amazon Redshift. Acceda a nuestra lista completa de artículos de blog aquí.