JetBrains kondigt aan de Google Gemini-modellen toe te voegen aan de AI-coding tool. De modellen die nu worden toegevoegd zijn Gemini 1.5 Pro en 1.5 Flash.
Google lanceerde Gemini 1.5 Pro en 1.5 Flash eind mei. Kenmerkend aan de modellen zijn de lange context window, wat betekent dat het large language model (LLM) veel tekst in één keer kan verwerken, net als het hoge niveau van reasoning. Volgens JetBrains stellen die eigenschappen developers in staat nieuwe zaken uit te voeren. Voor Flash ligt de nadruk op taken die focussen op kostenefficiëntie bij hoog volume en lage latentie. Developers kunnen de mogelijkheden uittesten in AI Assistant, de AI-coding tool van het bedrijf.
“Met de snelle vooruitgang van generatieve AI was het voor JetBrains van cruciaal belang om partners te vinden die niet alleen gelijke tred konden houden, maar ook konden innoveren en de meest capabele modellen konden creëren”, zegt JetBrains-CEO Kirill Skrygan. Die partner bleek opnieuw Google Cloud te zijn, waar het bedrijf al een lange geschiedenis van samenwerkingen mee heeft.
Developer ontlasten
Voor de integratie moet JetBrains Vertex AI van Google Cloud gaan ondersteunen. Voor ontwikkelaars kiest de assistent vervolgens of het LLM van Google wordt gebruikt. AI Assistant kiest namelijk het meest optimale model voor ieder probleem.
De maker van software development-tools vond uit eigen onderzoek dat developers ongeveer acht uur per week uitsparen door het gebruik van de coding assistent. Naast coderen kan de tool helpen met het oplossen van specifieke problemen en testen en documentatie genereren.