Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Récemment, j'ai testé la combinaison de Stitch avec AI Studio (Gemini), et je dois dire que l'expérience a été vraiment impressionnante.
Ce n'est plus simplement de la "programmation en langage naturel" au sens traditionnel. Le processus actuel est le suivant — Stitch génère d'abord des maquettes UI de haute qualité, puis AI Studio prend le relais pour reconnaître ces éléments visuels et sortir directement un cadre de code complet en un clic. Du design à un code utilisable, toute la chaîne est connectée.
J'ai testé cela avec un prototype de produit relativement simple, et le processus s'est avéré étonnamment fluide. La maquette est bien générée, la précision de reconnaissance est également bonne, et le code final est clair, prêt à être itéré. Cette méthode de "programmation en langage visuel" est nettement plus efficace que la génération de code à partir d'instructions en texte pur.
Si cette workflow continue à évoluer à l'avenir, l'espace d'imagination pour l'efficacité du développement est vraiment considérable.
Frère, j’ai déjà tapé du code à la main jusqu’à m’abîmer les mains, en voyant cette chose, je sens que l’époque a vraiment changé, je devrais prendre ma retraite avec cette vieille carcasse.
Ce n’est vraiment pas une blague cette fois, du design au cadre en une seule étape, si on continue à pousser l’efficacité comme ça, les petits développeurs vont forcément perdre leur emploi.
Mais bon, si c’est vraiment pratique, pourquoi y a-t-il pas plus de gens qui crient au miracle ? Ce ne serait pas encore un autre piège à éviter, hein.
La précision de reconnaissance des maquettes est-elle vraiment aussi élevée ? J’ai un peu du mal à y croire, il doit sûrement encore falloir faire des ajustements manuels pendant un bon moment.
Ce combo est pas mal, enfin l’IA ne se contente pas de faire du vent, les ingénieurs risquent vraiment de perdre leur boulot.
Ce n'est vraiment pas pour dénigrer, mais si cette combinaison se déploie réellement, combien de personnes devront apprendre à "être optimisées" ?
Mais pour en revenir à ce que je dis, je pense que c'est la logique inévitable de l'amélioration de l'efficacité à l'ère du web3, juste un peu plus rapide que ce à quoi je m'attendais.
Mais pour être honnête, cette combinaison de Stitch est vraiment impressionnante, ils sortent directement le cadre de code à partir du design, c'est génial.
D'ailleurs, la précision est-elle vraiment aussi élevée ? J'ai l'impression qu'il faut encore faire pas mal de détails à la main...
Si ça devient stable, tout le boulot en sous-traitance n'aura plus rien à faire.
Nos emplois de développeurs doivent aussi trembler un peu...
Mais côté efficacité, ça a vraiment l'air top, ça donne envie.