Changes
This commit is contained in:
@@ -1,17 +1,13 @@
|
||||
#!/usr/bin/env python3
|
||||
"""
|
||||
gen_face_ai.py – Generate assets/face_wire.png using Gemini image generation
|
||||
────────────────────────────────────────────────────────────────────────────────
|
||||
Uses the Gemini / Google Gen AI SDK with a native image-generation model
|
||||
(gemini-2.5-flash-image or similar) to produce a wireframe face PNG ready for
|
||||
display.py to load.
|
||||
gen_face_ai.py – Generate assets/face_wire.png via Gemini image generation
|
||||
──────────────────────────────────────────────────────────────────────────────
|
||||
Run once to produce the face PNG that display.py loads at startup.
|
||||
|
||||
pip install google-genai pillow
|
||||
python3 gen_face_ai.py
|
||||
|
||||
Or set the key in the environment:
|
||||
export GEMINI_API_KEY=YOUR_KEY
|
||||
python3 gen_face_ai.py
|
||||
Pass --list-models to see what image-capable models your key can reach.
|
||||
"""
|
||||
|
||||
import os
|
||||
@@ -19,16 +15,15 @@ import sys
|
||||
import io
|
||||
import argparse
|
||||
|
||||
# ── Paste your Gemini API key here ────────────────────────────────────────────
|
||||
# ── API key ───────────────────────────────────────────────────────────────────
|
||||
API_KEY = 'AQ.Ab8RN6LuGwkGiKPa61jsLAEYEpJp1Yl2EkZuBWTbN9AMKxgTSw'
|
||||
# ─────────────────────────────────────────────────────────────────────────────
|
||||
|
||||
# ── CLI ───────────────────────────────────────────────────────────────────────
|
||||
ap = argparse.ArgumentParser()
|
||||
ap.add_argument('--key', default='', help='Override the hardcoded API key')
|
||||
ap.add_argument('--out', default='assets/face_wire.png')
|
||||
ap.add_argument('--key', default='', help='Override the hardcoded API key')
|
||||
ap.add_argument('--out', default='assets/face_wire.png')
|
||||
ap.add_argument('--model', default='gemini-2.5-flash-image',
|
||||
help='Gemini image model to use (default: gemini-2.5-flash-image)')
|
||||
help='Gemini image model to use')
|
||||
ap.add_argument('--list-models', action='store_true',
|
||||
help='Print models that support generateContent then exit')
|
||||
args = ap.parse_args()
|
||||
@@ -37,7 +32,6 @@ api_key = args.key or API_KEY or os.environ.get('GEMINI_API_KEY', '')
|
||||
if not api_key:
|
||||
sys.exit('ERROR: paste your key into API_KEY at the top of this file')
|
||||
|
||||
# ── Install check ─────────────────────────────────────────────────────────────
|
||||
try:
|
||||
from google import genai
|
||||
from google.genai import types
|
||||
@@ -49,7 +43,6 @@ try:
|
||||
except ImportError:
|
||||
sys.exit('Run: pip install pillow then try again.')
|
||||
|
||||
# ── Connect ───────────────────────────────────────────────────────────────────
|
||||
print('Connecting to Google GenAI …')
|
||||
client = genai.Client(api_key=api_key)
|
||||
|
||||
@@ -61,7 +54,6 @@ if args.list_models:
|
||||
print(f' {m.name}')
|
||||
sys.exit(0)
|
||||
|
||||
# ── Prompt ────────────────────────────────────────────────────────────────────
|
||||
PROMPT = (
|
||||
"3D wireframe polygon mesh of a human head and face, viewed from slightly "
|
||||
"below, front-facing, neutral expression, pure black background, thin "
|
||||
@@ -70,17 +62,15 @@ PROMPT = (
|
||||
"style, high contrast monochrome"
|
||||
)
|
||||
|
||||
# ── Generate ──────────────────────────────────────────────────────────────────
|
||||
print(f'Generating with {args.model} …')
|
||||
response = client.models.generate_content(
|
||||
model = args.model,
|
||||
contents= PROMPT,
|
||||
config = types.GenerateContentConfig(
|
||||
model = args.model,
|
||||
contents = PROMPT,
|
||||
config = types.GenerateContentConfig(
|
||||
response_modalities = ['IMAGE', 'TEXT'],
|
||||
),
|
||||
)
|
||||
|
||||
# ── Extract image bytes ───────────────────────────────────────────────────────
|
||||
img_bytes = None
|
||||
for part in response.candidates[0].content.parts:
|
||||
if part.inline_data and part.inline_data.mime_type.startswith('image/'):
|
||||
@@ -88,17 +78,12 @@ for part in response.candidates[0].content.parts:
|
||||
break
|
||||
|
||||
if img_bytes is None:
|
||||
# Print any text the model returned to help debug
|
||||
for part in response.candidates[0].content.parts:
|
||||
if hasattr(part, 'text') and part.text:
|
||||
print('Model text response:', part.text[:400])
|
||||
print('Model said:', part.text[:400])
|
||||
sys.exit('No image in response – try a different --model')
|
||||
|
||||
# ── Save as PNG ───────────────────────────────────────────────────────────────
|
||||
os.makedirs(os.path.dirname(args.out) if os.path.dirname(args.out) else '.',
|
||||
exist_ok=True)
|
||||
|
||||
# Convert whatever format came back to a proper PNG
|
||||
os.makedirs(os.path.dirname(args.out) if os.path.dirname(args.out) else '.', exist_ok=True)
|
||||
img = Image.open(io.BytesIO(img_bytes))
|
||||
img.save(args.out, 'PNG')
|
||||
|
||||
|
||||
Reference in New Issue
Block a user