Banque de posts
10 posts · 10 drafts · 0 prêts · 0 publiés
Grandirtechniquedraftperso· LinkedIn Presence1043 car.
Zapier me facturait cinquante euros par mois pour cinq automatisations qui prenaient trois secondes chacune.
Voici mon choix de stack, n8n self-hosted / Docker / VPS Hetzner, je t'explique pourquoi.
Zapier facture au zap et au pas, le prix explose dès que le volume monte. Make est un peu mieux côté quotas mais reste capé, et debugger un scénario qui plante est pénible. Pipedream est gratuit mais limité à environ trois cents invocations par jour. Tous t'enferment côté credentials et côté workflows, si tu veux partir tu reconstruis tout.
n8n est open source, je l'ai self-hosté sur un VPS Hetzner à trois euros par mois, invocations illimitées. L'editor visuel est aussi bon que Make, plus de quatre cents intégrations natives, webhooks built-in. Mes credentials restent chiffrés sur mon serveur, personne d'autre n'y touche. Et quand le drag-and-drop ne suffit plus, je sors un node JavaScript custom et je scripte directement.
J'ai mis en place un cron qui m'alerte sur mes posts scheduled, un webhook qui parse mon export CSV LinkedIn Analytics et l'insère dans Neon, et une automatisation qui capture mes idées brutes depuis Telegram vers ma banque d'idées.
Même valeur que Zapier, dix-sept fois moins cher, et zéro vendor lock-in.
Grandirtechniquedraftperso· LinkedIn Presence1151 car.
J'ai testé GPT-4o, Mistral Large et Claude Sonnet pour générer mes hooks LinkedIn. Un seul sonnait humain.
Voici mon choix de stack, Claude Sonnet 4.6 / Anthropic API / Next.js Route Handler, je t'explique pourquoi.
GPT-4o sort des hooks bourrés de formules corporate et d'emojis. Tout le monde reconnaît le style au premier scroll. Mistral Large est moins cher mais les hooks tombent plats et répètent les mêmes tournures d'un appel à l'autre. Llama en local, la qualité est OK mais l'inférence prend trois secondes par hook, trop lent pour itérer. Et tous galerent à suivre un prompt de style pointu : pas de markdown, ton parlé, suspense en deux phrases.
Claude Sonnet 4.6 via l'API Anthropic est le seul qui respecte vraiment un prompt système long et qui sort du texte qui ne pue pas l'IA. Le prompt caching natif me laisse cacher mes trois mille tokens de consignes et divise le coût par dix sur les appels suivants. Le SDK officiel streame proprement, moins de cinq cents millisecondes par hook. Rate limits larges pour un solo dev, pas de gestion de quota à faire.
J'ai construit une Server Action qui prend le corps du post, le type et le ton, envoie un prompt structuré à Claude, et retourne cinq hooks sous cinq angles différents (contradiction, chiffre, histoire, question, révélation). Intégré direct dans mon editor, un clic et j'ai cinq propositions.
Grandirtechniquedraftperso· LinkedIn Presence1020 car.
J'ai arrêté de payer Buffer. J'ai codé mon propre dashboard LinkedIn en un week-end.
Voici mon choix de stack, Next.js 15 / Server Actions / Neon / Tailwind v4, je t'explique pourquoi.
Buffer me facturait quinze euros par mois pour un scheduler basique qui ne me disait rien sur mes propres perfs. Hootsuite est pensé entreprise, lourd et hors sujet pour un solo dev. Taplio vise l'automation AI qui pourrit ton profil. Aucun de ces outils ne me laissait lier un post à un projet et mesurer quelle stack engage le plus mon audience.
Next.js 15 en App Router me rend le SSR gratuit : toutes les pages du dashboard arrivent déjà hydratées. Les Server Actions me laissent muter la DB sans écrire la moindre route API, le formulaire pointe directement sur une fonction serveur. Neon en driver HTTPS me donne des branches Postgres gratuites pour tester des migrations sans casser la prod. Tailwind v4 build en deux secondes grâce aux CSS variables natives.
J'ai construit une banque de posts filtrée par projet, un editor avec preview LinkedIn temps réel, et un dashboard analytics qui corrèle engagement et stack technique. Déployé sur Vercel en cinquante secondes.
Zéro abonnement. Tout le code est à moi.
Vendrestorytellingdraft846 car.
Avant j'avais ton problème
Si tu es freelance technique et que LinkedIn ne t'amène aucun client, lis ça.
Il y a six mois j'étais exactement au même endroit. Bon techniquement, capable de livrer, et incapable de faire venir quelqu'un via mon contenu.
J'ai essayé tout ce qu'on dit de faire. Plus de hashtags. Des posts plus courts. Des posts plus longs. Un post par jour pendant une semaine. Rien n'a bougé.
Ce qui a changé c'est de comprendre un truc. Le problème n'était pas mon niveau, c'était mon message. Mes posts parlaient de ce que je voulais montrer, pas de ce dont le lecteur avait besoin.
Concrètement j'ai arrêté de commencer mes posts par ma stack. J'ai commencé à les commencer par le problème du lecteur. Et j'ai construit une discipline qui alterne le contenu qui attire et le contenu qui vend, au lieu de publier au feeling.
Si toi aussi tu es dev ou freelance technique bloqué sur ce mur, envoie-moi un message. On peut en parler.
Grandirtechniquedraftperso· Facebook Agent IA822 car.
[FLAGSHIP] Bot FB - FastAPI + LangGraph
On m'a demandé si j'avais utilisé OpenAI pour mon bot Facebook. Oui. Mais c'est la partie la moins importante.
Voici mon choix de stack, Python / FastAPI / LangGraph / Postgres, je t'explique pourquoi.
Avant celle-là j'ai testé trois approches.
n8n pour le no-code. Meta renvoie le même webhook trois ou quatre fois pour un commentaire, et n8n ne gère pas l'idempotence proprement. Le bot répondait deux fois au même user.
Express en Node direct. Dès que le bot doit choisir entre spam, répondre, ou escalader, le code devient un plat de spaghettis.
OpenAI en function calling pur. Le LLM finit par appeler Meta lui-même. Le jour où il hallucine une décision, zéro filet.
J'ai fini sur FastAPI pour valider les webhooks Meta avec Pydantic. LangGraph pour modéliser le bot comme une state machine (spam, répondre, escalader). Postgres pour persister l'état des conversations. Le LLM décide, le code exécute.
Trois mois en prod, douze mille commentaires, zéro crash.
Le secret c'est pas le modèle, c'est la stack autour.
Grandirtechniquedraftperso· Factupro894 car.
[FLAGSHIP] Factupro - React Supabase Resend
J'ai codé mon propre outil de facturation pour arrêter de payer cinquante euros par mois.
Voici mon choix de stack, React / Vite / Supabase / Resend / Stripe, je t'explique pourquoi.
J'ai comparé trois options avant de coder le mien.
Stripe Invoicing: cinquante euros par mois pour un feature set rebâti en un week-end. Pas rentable pour du solo.
Freshbooks et ses copains: l'USD passe mal pour mes clients internationaux, et les templates de relance sont figés.
Next.js: j'allais le prendre par habitude, mais c'est une app cent pour cent auth. Le SSR sert à rien, et le build prend dix fois plus de temps qu'un Vite.
J'ai fini sur React avec Vite pour le front (build en trois secondes, bundle mini). Supabase pour l'auth et la base. Resend pour les emails. Stripe pour encaisser. react-pdf pour les factures.
La feature qui change tout, c'est un cron Postgres qui tourne chaque jour, cherche les factures en retard, et déclenche Resend avec un template qui durcit le ton. Gentil, puis ferme, puis très ferme.
Neuf cents lignes. Remplace un abonnement. Me suit partout.
Grandirstorytellingdraft806 car.
Quatre impressions LinkedIn
Quatre impressions. C'est ce que faisaient mes posts LinkedIn. Littéralement quatre.
Pendant six mois j'ai publié quand l'envie me prenait. Des posts longs, bourrés d'emojis, à moitié générés par IA. Je me disais que mon contenu était bon et que ça allait finir par décoller.
Ça n'a pas décollé.
J'ai vu une vidéo qui disait un truc simple. Si tu publies uniquement du contenu pour attirer, tu attires des gens qui n'achètent pas. Et si tu publies uniquement du contenu pour vendre, personne ne te découvre. Il faut alterner les deux.
Je me suis rendu compte que je ne faisais ni l'un ni l'autre vraiment. Je publiais sans objectif clair.
Alors j'ai codé un petit dashboard qui me force à choisir un objectif pour chaque post. Grandir, ou vendre. Et qui m'alerte si j'enchaîne trois posts du même type.
C'est pas l'outil qui fait le travail. Mais sans contrainte, je ne m'imposais rien.
Grandirtechniquedraftperso· Portfolio1028 car.
[FLAGSHIP] Next.js vs Webflow/WordPress
J'allais refaire mon site en Webflow. J'ai changé d'avis à cause de ChatGPT.
Voici mon choix de stack, Next.js / React / SSR / JSON-LD / i18n / sitemap, je t'explique pourquoi.
Webflow construit ses pages avec du JavaScript côté client. Les bots de ChatGPT, Perplexity et Claude ne l'exécutent pas. Ils voient une page vide.
Même histoire pour une SPA React en Vite. Google a appris à rendre le JS, pas les IA.
Pour le multi-langue, Webflow te fait payer un add-on par langue et les URL hreflang sont bancales.
Next.js en SSR renvoie le HTML déjà construit au premier render. Tout est là pour les crawlers, humains comme IA. Le router gère l'i18n nativement avec des routes propres par langue (/fr, /en, /es), et les balises hreflang s'injectent via la Metadata API. Le sitemap.xml et le robots.txt se génèrent depuis un simple fichier TypeScript, sans plugin à maintenir.
J'ai repris mon portfolio en Next.js : SSR, JSON-LD pour le contexte IA, i18n routing, sitemap auto, et contenu en questions-réponses que Perplexity et Claude peuvent citer tel quel.
Deux jours de setup au lieu de trente minutes sur Webflow. C'est le prix pour être trouvable dans toutes les langues, par les moteurs de demain.
Grandirtechniquedraft659 car.
Bug ETIMEDOUT port 5432
Deux jours que mon dashboard renvoie ETIMEDOUT en local. Le bug n'était pas dans mon code.
Voici mon choix de stack, Next.js / Neon / Postgres / @neondatabase/serverless, je t'explique pourquoi.
J'utilisais le driver Postgres classique qui passe par le port 5432. Tout marchait en prod. En local, rien. J'ai cherché dans ma config Next, dans mes variables d'environnement, dans les permissions Neon. Deux jours pour rien.
Le problème c'était mon fournisseur internet qui bloque le port 5432 en sortie. Aucune erreur claire, juste un timeout silencieux.
J'ai switché sur le driver serverless de Neon qui passe en HTTPS sur le 443. Une ligne changée. Tout remarche.
La leçon c'est pas sur les drivers. C'est que ton environnement peut te mentir sur ce qui marche. Si un truc échoue en local mais pas ailleurs, regarde plus bas dans la pile que ton code.
Vendretechniquedraftperso· Factupro690 car.
Factumation bundle -87%
Un site de facturation mettait huit secondes à charger. Les clients partaient avant même de voir le formulaire.
Voici mon choix de stack, React / Vite / react-pdf, je t'explique pourquoi.
Par défaut, Vite et Webpack mettent tout dans un seul bundle. Y compris la librairie react-pdf qui pèse deux mégas et qui ne sert qu'au moment de l'export.
Résultat, tu charges une page de login en traînant le générateur de factures derrière toi.
J'ai sorti react-pdf du bundle initial avec un import dynamique, et j'ai découpé le reste avec manualChunks dans la config Vite. Bundle passé de 1557 à 202 kilos. Temps de chargement divisé par six.
La perf web c'est rarement un problème de framework. C'est presque toujours un problème de ce qu'on charge, et quand on le charge.
Si ton site est lent et que tu sais pas pourquoi, écris-moi. Je regarde et je te dis où est le vrai coupable.