Tyto nové modely nabízejí další nástroje pro vývojáře a přispívají k pokračujícímu úsilí o bezpečnou a transparentní budoucnost umělé inteligence.
Tři nové modely AI
Nedávno společnost Google představila tři nové generativní modely AI. Tyto modely, které jsou součástí řady Gemma 2 společnosti Google, jsou navrženy tak, aby byly bezpečnější, efektivnější a transparentnější než mnohé stávající modely.
V příspěvku na blogu na internetových stránkách společnosti se uvádí, že nové modely - Gemma 2 2B, ShieldGemma a Gemma Scope - staví na základech vytvořených původní řadou Gemma 2, která byla uvedena na trh v květnu.
Nová éra umělé inteligence s modelem Gemma 2
Na rozdíl od modelů Gemini společnosti Google je řada Gemma otevřená. Tento přístup odráží strategii společnosti Meta s jejími modely Llama, jejímž cílem je poskytovat dostupné a robustní nástroje AI pro širší publikum.
Gemma 2 2B je odlehčený model pro generování a analýzu textu. Je dostatečně univerzální, aby mohl běžet na různém hardwaru. Jeho schopnost fungovat v různých prostředích z něj činí atraktivní volbu pro vývojáře.
ShieldGemma
ShieldGemma je vytvořen tak, aby odhaloval a filtroval toxický obsah, včetně nenávistných projevů, obtěžování a explicitního materiálu. Funguje nad systémem Gemma 2 a poskytuje vrstvu moderace obsahu, která je v dnešním digitálním prostředí klíčová.
Podle společnosti Google dokáže ShieldGemma filtrovat podněty ke generativnímu modelu a generovanému obsahu, což z něj činí cenný nástroj pro zachování bezpečnosti obsahu generovaného umělou inteligencí.
Gemma Scope
Tento model umožňuje vývojářům získat hlubší vhled do vnitřního fungování modelů Gemma 2. Podle společnosti Google se Gemma Scope skládá ze specializovaných neuronových sítí, které pomáhají rozbalit husté a komplexní informace zpracovávané modelem Gemma 2.
Rozšířením těchto informací do interpretovatelnější podoby mohou výzkumníci lépe pochopit, jak Gemma 2 identifikuje vzory, zpracovává data a vytváří předpovědi. Tato transparentnost je zásadní pro zvýšení spolehlivosti a důvěryhodnosti umělé inteligence.
Řešení bezpečnostních problémů
Společnost Google tyto modely představila také v návaznosti na varování inženýra společnosti Microsoft Shanea Jonese, který vyjádřil obavy, že nástroje umělé inteligence společnosti Google vytvářejí násilné snímky a ignorují autorská práva.
Zveřejnění těchto nových modelů se shoduje s předběžnou zprávou amerického ministerstva obchodu, která schvaluje otevřené modely umělé inteligence. Zpráva zdůrazňuje výhody zpřístupnění generativní AI menším společnostem, výzkumníkům, neziskovým organizacím a jednotlivým vývojářům.