Integrar la API de Gemini en tus proyectos: Google AI Studio, clave API, Gemini CLI y primeros prompts

Integrar la API de Gemini en tus proyectos: Google AI Studio, clave API, Gemini CLI y primeros prompts

Conectar la API de Gemini a tu proyecto ahora es más sencillo de lo que muchos esperan. Para empezar no hace falta dedicar horas a Google Cloud, crear roles complejos ni leer media docena de manuales seguidos. En la mayoría de los casos basta con Google AI Studio, una clave de acceso y un par de comandos en la terminal. En pocos minutos se puede enviar la primera solicitud y obtener una respuesta del modelo.

Para quien empieza, es una entrada cómoda. Primero pruebas la idea directamente en Gemini AI Studio, luego creas la clave API de Gemini y después trasladas la versión funcional a Python, Node.js o a tu pequeño automatizador. Ese camino sirve tanto para un bot simple en un mensajero como para un script personal que resume notas, reescribe texto o responde mensajes típicos.

A continuación habrá una guía básica sin teoría innecesaria. Veremos dónde obtener la clave, cómo está organizado el interfaz de AI Studio, qué comandos son útiles en Gemini CLI y cómo redactar prompts para Gemini para que el modelo responda a lo que se pide.

Cómo obtener la clave API de Gemini y configurar el acceso

La forma más rápida de empezar con la API de Gemini en 2026 es Google AI Studio. Dentro del servicio hay una sección API Keys, donde se puede crear una clave y vincularla de inmediato al proyecto. Si la cuenta es nueva, Google puede crear automáticamente un proyecto en la nube por defecto. Si ya tienes tu propio proyecto, puedes importarlo y emitir claves dentro de él.

Después todo es bastante rutinario. Creas la clave, la guardas y no la dejas en el código de forma permanente. Para desarrollo local lo habitual es usar la variable de entorno GEMINI_API_KEY. Google también admite GOOGLE_API_KEY, pero si están ambas, la segunda tendrá prioridad. Es más sencillo elegir una y no multiplicar la confusión.

En Linux y macOS la clave suele añadirse en ~/.bashrc o ~/.zshrc. En Windows se define mediante las variables de entorno del sistema. Tras eso, las bibliotecas de servidor suelen captarla automáticamente. Pero para peticiones REST y JavaScript en el navegador a menudo hay que pasar la clave explícitamente, así que no conviene confiar en la auto‑sustitución.

Si la aplicación más adelante necesita autenticar en nombre del usuario o un esquema de acceso más estricto, se puede pasar a OAuth. Pero para el primer proyecto eso suele ser una complejidad innecesaria. Para un bot simple, un servicio de prueba o un script personal, la clave API de Gemini casi siempre es más cómoda.

Para qué sirve Gemini AI Studio además de emitir claves

Gemini AI Studio no sirve solo para emitir la clave. Es también un lugar práctico donde probar rápidamente una idea antes de meterse en el código. Hay un chat para solicitudes de prueba, ajustes de la instrucción del sistema y modos rápidos para experimentar. En esa fase es muy útil comprobar si la solicitud funciona y qué es lo que realmente quieres del modelo.

Para el primer proyecto no conviene lanzarse a todas las funciones a la vez. Basta con el chat habitual y un par de solicitudes tipo. Por ejemplo, si haces un bot de atención, puedes comprobar el tono de la respuesta, la longitud del mensaje y cómo se comporta el modelo ante falta de datos. Esto ahorra tiempo cuando la solicitud llega al código y cualquier formulación pobre empieza a parecer un error de la API.

Un orden útil es: primero escribes una instrucción corta del sistema, luego añades un par de ejemplos reales y después trasladas la estructura a la aplicación. Así es más fácil ver que el problema no está en el SDK sino en que la solicitud es ambigua, demasiado cargada o no especifica el formato de respuesta.

Al principio no conviene activar de inmediato el modo por streaming, llamadas a herramientas externas, esquemas JSON y otras funciones avanzadas. Para el primer escenario de trabajo basta con entender lo básico: hay un modelo, hay un texto de entrada y hay una respuesta. Con eso ya se puede montar un bot sencillo o una automatización para tareas personales.

Conectamos la API de Gemini al script y probamos Gemini CLI

Para Python el paquete principal de Google ahora es google-genai, y para Node.js se usa @google/genai. En la forma más simple todo se reduce a llamar a generate_content. Abajo un ejemplo mínimo en Python para un script personal:

from google import genai

client = genai.Client()

response = client.models.generate_content(
    model="gemini-3-flash-preview",
    contents="Crea un resumen breve del texto en 3 puntos",
)

print(response.text)

Si hace falta un bot muy simple, la lógica es la misma. Recibes el mensaje, lo pasas a la API de Gemini y devuelves la respuesta. Por ejemplo:

from google import genai

client = genai.Client()

def ask_gemini(user_text: str) -> str:
    response = client.models.generate_content(
        model="gemini-3-flash-preview",
        contents=f"Responde breve y al grano: {user_text}",
    )
    return response.text

Ese fragmento ya basta para integrar el modelo en un bot de Telegram, un bot de Discord, un webhook o un script interno. Luego solo añades la capa necesaria para el mensajero o servicio correspondiente.

Ahora, sobre Gemini CLI. No es un reemplazo de la API sino una herramienta cómoda para la terminal. Se instala con npx @google/gemini-cli o globalmente con npm install -g @google/gemini-cli. El CLI es útil cuando quieres ejecutar rápidamente una solicitud en la terminal, probar el comportamiento del modelo con archivos del proyecto o esbozar una idea de automatización sin lanzar toda una aplicación. Para la integración final sigue siendo mejor usar la propia API de Gemini a través del SDK o REST.

Cómo redactar prompts para Gemini sin rodeos

El problema de los principiantes casi nunca es la API ni el modelo, sino las mismas solicitudes. La persona escribe algo como explica el tema en detalle, recibe una respuesta difusa y concluye que Gemini funciona mal. En realidad al modelo no se le dieron límites claros: no se dijo quién es, qué debe hacer, en qué formato responder ni qué está prohibido.

Los prompts efectivos para Gemini suelen construirse de forma directa. Primero el rol, luego la tarea, después las restricciones y finalmente el formato de la respuesta. A continuación van los datos de entrada. Cuanto más concreta la instrucción, menor la probabilidad de que el modelo se disperse.

Un esquema simple se ve así:

Rol: eres un asistente de soporte. Tarea: responde a la pregunta del usuario usando la base de conocimiento abajo. Restricciones: no inventes hechos. Formato: respuesta breve de hasta 5 oraciones. Base de conocimiento:
... Pregunta:
...

Otro punto importante: no intentes hacer el prompt más inteligente con formulaciones grandilocuentes. Frases como piensa como un gran experto solo hinchan la respuesta. Funcionan mucho mejor las indicaciones sencillas. Responde en tres puntos. No añadas hechos nuevos. Si hay poca información, dilo. Para bots internos y automatizaciones esto suele ser suficiente.

Si el resultado sigue sin gustar, primero corrige la solicitud, no el código. Añade un ejemplo de respuesta, quita el contexto innecesario, aclara el formato. Los buenos prompts para Gemini rara vez salen perfectos a la primera; se afinan tras un par de revisiones claras.

FAQ

¿Qué es más sencillo para empezar: la clave API de Gemini o OAuth?
Para el primer proyecto casi siempre es más cómodo usar la clave API de Gemini creada en Google AI Studio. OAuth conviene implementarlo más adelante, cuando necesites reglas de acceso más estrictas.

¿Dónde es más cómodo probar las solicitudes?
Más rápido en Gemini AI Studio. Allí es más fácil entender qué quieres del modelo antes de integrar el SDK.

¿Gemini CLI sustituye a la API de Gemini?
No. Gemini CLI es práctico para la terminal y experimentos rápidos, pero para una aplicación propia es mejor usar la API de Gemini directamente.

¿Qué modelo elegir para un principiante?
Para las primeras pruebas suelen ser más convenientes los modelos rápidos de la familia Flash. Funcionan bien para chats breves, scripts y bots simples.

¿Por qué el modelo responde de forma demasiado imprecisa?
Probablemente el problema está en la solicitud. Revisa el rol, las restricciones, el formato y los ejemplos. Normalmente eso basta para que la respuesta mejore notablemente.

No almacenes la clave API de Gemini activa en un repositorio público, en JavaScript del lado del cliente ni en ejemplos públicos. Para proyectos en producción es mejor usar una capa de servidor y variables de entorno.

Si necesitas una ruta muy corta, es esta: abre Gemini AI Studio, crea la clave API de Gemini, configúrala como variable de entorno, prueba la solicitud en la interfaz, lanza el primer script mediante el SDK y solo después pasa a cosas más complejas como OAuth y el modo por streaming. Para empezar eso es más que suficiente.

Alt text