Google wycofuje ze swojej polityki zakaz korzystania z AI w uzbrojeniu lub nadzorze | Technologia
Google zaktualizował we wtorek swoje przewodniki etyczne w zakresie korzystania z sztucznej inteligencji (AI) i wykluczył zobowiązanie do nie stosowania tej technologii lub nadzoru, które naruszają międzynarodowe standardy lub sprzeczne z prawami. Poprzednie sformułowanie, dostępne do ostatniego tygodnia i można je skonsultować, obejmowały aplikacje, które uniknęłyby stosowania „technologii, które powodują lub prawdopodobnie spowodują ogólne szkody”, w tym broń, zgodnie z międzynarodowymi zasadami praw człowieka.
Zmiany i nowa wizja firmy na temat jej zasad AI zostały wyjaśnione w liście podpisanym przez szefa Google AI oraz starszego wiceprezesa ds. Technologii i towarzystwa firmy James Manyika. Google uważa, że „demokracje powinny kierować rozwojem sztucznej inteligencji, kierowanymi przez podstawowe wartości, takie jak wolność, równość i szacunek dla praw człowieka”, mówi dokument.
„Uważamy, że firmy, rządy i organizacje, które dzielą te wartości, powinny współpracować w celu stworzenia sztucznej inteligencji, która chroni ludzi, promuje globalny wzrost i wspiera bezpieczeństwo narodowe” – dodaje.
Nowa aktualizacja obejmie takie przepisy, jak firma będą uciekać się do kontroli człowieka i uwzględniają współpracę użytkowników, aby upewnić się, że ich technologia jest wykorzystywana zgodnie z „powszechnie akceptowanymi zasadami prawa międzynarodowego i praw człowieka”.