Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Atlassian et Google Cloud renforcent leur collaboration en IA… intégrant “Rovo” à Gemini et Workspace
Atlassian a considérablement étendu sa coopération à long terme avec Google Cloud. L’essentiel réside dans l’intégration approfondie de sa plateforme d’agents intelligents IA « Rovo » dans Google Workspace et Gemini Enterprise, ainsi que dans la migration des principales tâches d’entraînement en intelligence artificielle vers l’infrastructure de Google.
Cette annonce a été faite lors de la conférence « Google Cloud Next 2026 » à Las Vegas, aux États-Unis. Atlassian indique qu’ils construisent une pile complète comprenant entraînement et inférence, basée sur Google Kubernetes Engine et le « superordinateur IA » de Google Cloud. La couche d’orchestration, conçue par Atlassian, vise à permettre une extension flexible des charges de travail à travers des GPU haute performance et des TPU personnalisés de Google.
Selon la société, certaines tâches d’entraînement de Rovo ont déjà été déployées sur cette infrastructure. Les résultats préliminaires montrent une extraction de réponses plus rapide et plus pertinente à partir de bases de connaissances internes d’entreprise. Pour l’IA d’entreprise, la vitesse et la précision sont directement liées à la productivité réelle, cette collaboration étant donc perçue comme bien plus qu’un simple partenariat technologique, mais comme une étape clé pour renforcer la compétitivité des outils de travail.
Application Gemini 3 Flash… Amélioration des résumés de documents et des fonctionnalités multimodales
Le modèle Gemini 3 Flash de Google sera intégré à certaines fonctionnalités de Rovo. Atlassian prévoit d’utiliser ce modèle pour des scénarios complexes de raisonnement, de tâches multimodales et de résumés de documents à grande échelle. Ils ont également indiqué qu’ils maintiendraient une flexibilité pour basculer vers d’autres modèles selon les usages spécifiques.
Des cas d’utilisation concrets ont déjà émergé. La nouvelle fonctionnalité « Remix » de Confluence, récemment lancée, peut convertir des documents textuels en diagrammes et illustrations, en exploitant la capacité multimodale de Gemini 3 Flash. La transformation de vastes collections de documents d’entreprise en formats visuels vise à améliorer la productivité collaborative.
Intégration de Rovo dans Gemini Enterprise et Workspace
Les deux parties ont également renforcé leur intégration interproduits. Désormais, les utilisateurs peuvent accéder directement à Rovo depuis Gemini Enterprise. Cela signifie qu’il n’est pas nécessaire de réaliser une intégration personnalisée séparée pour faire entrer le contexte de travail d’Atlassian dans l’agent intelligent basé sur Gemini.
Inversement, dans Google Workspace, les utilisateurs peuvent désormais effectuer des requêtes liées à Atlassian. Via le serveur de protocole MCP (Model Context Protocol) de Rovo d’Atlassian, il est possible d’accéder aux données Jira dans Google Docs ou Gmail sans changer d’onglet. Cela est interprété comme une démarche visant à réduire la perte d’efficacité liée au changement d’outils de travail.
Atlassian participe également en tant que partenaire d’accès anticipé au serveur MCP de Google Workspace. Par cette initiative, les fonctionnalités de Google seront plus directement intégrées dans l’environnement Atlassian à l’avenir. Les deux parties estiment que leurs clients communs pourront automatiser des flux de travail trans-plateformes, créant ainsi un pipeline de support IA allant de la découverte créative à la phase opérationnelle.
Concurrence dans l’IA d’entreprise, « connectivité de travail » plus cruciale que « modèle » lui-même
Jamil Baliani, responsable des produits IA chez Atlassian, déclare : « Nous collaborons avec l’équipe de conception de Google Cloud sur l’infrastructure et les agents IA dont nous dépendons pour exécuter nos tâches principales. Nous allons combiner le système de travail basé sur l’IA d’Atlassian, Rovo, et la pile IA de Google Cloud pour offrir plus de choix et des workflows d’agents plus puissants à nos clients. »
Satish Thomas, vice-président de l’écosystème d’applications IA et plateforme chez Google Cloud, ajoute : « Grâce à cette expansion de notre partenariat, nous intégrons directement Gemini Enterprise et Google Workspace dans la pile de collaboration d’équipe. »
Cette annonce indique que la compétition sur le marché de l’IA d’entreprise ne se concentre plus uniquement sur la performance des grands modèles de langage, mais sur la « connectivité entre outils de travail ». Atlassian et Google Cloud s’efforcent d’intégrer profondément l’IA dans les processus collaboratifs réels, plutôt que de la considérer comme une fonctionnalité indépendante. Pour les clients d’entreprise, la capacité à connecter sans couture documents, emails et outils de gestion de projets existants devient de plus en plus un critère de choix essentiel.
TP AI Tip : Cet article est résumé à partir du modèle linguistique TokenPost.ai. Le contenu principal peut être incomplet ou ne pas refléter entièrement la réalité.