Construisez des agents IA en production avec l'UI Générative — en minutes, pas en mois.
curl -fsSL https://haira.dev/install.sh | shprovider tool agent workflow — tout ce qu'il faut pour créer des agents IA en production.
import "http"
provider openai {
api_key: env("OPENAI_API_KEY")
model: "gpt-4o"
}
tool get_weather(city: string) -> string {
"""Get the current weather for a city."""
resp, err = http.get("https://wttr.in/${city}?format=j1")
if err != nil { return "Failed to fetch." }
data = resp.json()
current = data["current_condition"][0]
return "${city}: ${current["temp_C"]}°C"
}
agent Assistant {
provider: openai
system: "You are a helpful assistant."
tools: [get_weather]
memory: conversation(max_turns: 10)
}
@post("/chat")
workflow Chat(message: string) -> stream {
return Assistant.stream(message)
}
fn main() {
http.Server([Chat]).listen(8080)
}Connectez-vous à tout LLM — OpenAI, Anthropic, Azure, Ollama, ou toute API compatible OpenAI. Pas d'import de SDK.
Donnez des capacités à votre agent. Fonctions typées avec documentation obligatoire par le compilateur.
Déclarez un agent avec des outils, de la mémoire et un prompt système. Pas d'héritage. Pas de magie de framework.
Exposez les agents comme endpoints HTTP. Streaming, formulaires, upload de fichiers — tout intégré. Déployez en un seul binaire.
Haira compile en Go, puis en binaire natif. Pas d'interpréteur, pas de VM, pas de node_modules. Un fichier, exécutez partout.
provider, tool, agent, workflow sont des mots-clés de premier ordre — pas des décorateurs ajoutés aux classes Python.
Types statiques, pattern matching, enums, structs, opérateur pipe et gestion d'erreurs. Détectez les bugs avant la production.
Streaming SSE avec -> stream. Chaque workflow obtient un chat UI auto-généré. Composants riches via le protocole ARP.
Routage automatique entre agents spécialisés. De l'accueil à la facturation au support technique — un champ de config, zéro code de liaison.
HTTP, JSON, Postgres, Excel, Slack, GitHub, recherche vectorielle, regex, temps, système de fichiers — tout intégré, tree-shaking à la compilation.
Les agents retournent des composants UI riches — tableaux, graphiques, cartes de statut, confirmations — pas juste du texte. Pas de code frontend.
import "ui"
tool show_metrics() -> string {
"""Show system metrics dashboard."""
ui.status_card(
title: "API Health",
value: "99.9%",
status: "success"
)
ui.table(
headers: ["Service", "Status", "Latency"],
rows: [
["Auth", "Healthy", "12ms"],
["DB", "Healthy", "3ms"],
["Cache", "Warning", "89ms"],
]
)
ui.chart(
type: "line",
title: "Requests / min",
data: get_request_data()
)
return "Metrics displayed."
}Un langage au lieu d'une tour fragile de frameworks, SDKs et YAML.
Explorateurs de données, tableaux de bord admin et outils d'opérations avec UI générative. Tableaux, graphiques et cartes de statut — rendus par l'agent.
Handoffs multi-agents, mémoire de conversation et persistance de session. Routage du triage à la facturation au support — automatiquement.
Remplacez n8n, Make et Zapier par des workflows compilés et type-safe. Webhooks, triggers et exécution parallèle intégrés.
Recherche vectorielle, Postgres et traitement de documents dans la bibliothèque standard. Agents augmentés par la recherche sans code de liaison.
Des agents qui vérifient la santé, interrogent les logs, créent des tickets et notifient les équipes — tout depuis une interface de chat.
GPT-4o pour le raisonnement, Claude pour l'analyse, Ollama pour les données privées — dans la même app. Changez en une ligne.
Installez Haira, écrivez votre premier agent, déployez un binaire.