USA chcą regulacji sztucznej inteligencji
Rząd Stanów Zjednoczonych podjął pierwsze kroki w kierunku ustanowienia zasad dotyczących narzędzi sztucznej inteligencji, ponieważ popularność generatywnej sztucznej inteligencji i chatbotów osiągnęła szczyt.
Departament Handlu USA ogłosił, że oficjalnie prosi o publiczny komentarz dotyczący tworzenia środków rozliczalności dla sztucznej inteligencji, szukając pomocy w doradzaniu amerykańskim decydentom w podejściu do tej technologii.
Alan Davidson, szef Narodowej Administracji Telekomunikacji i Informacji (NTIA), ogłosił, że NTIA poszukuje opinii naukowców, grup branżowych oraz organizacji zajmujących się ochroną prywatności i praw cyfrowych na temat rozwoju audytów i ocen narzędzi AI tworzonych przez przemysł prywatny. NTIA chce ustanowić bariery, które pozwolą rządowi określić, czy systemy sztucznej inteligencji działają tak, jak twierdzą firmy, czy są bezpieczne i skuteczne, czy mają dyskryminujące wyniki lub „odzwierciedlają niedopuszczalny poziom uprzedzeń”, czy rozpowszechniają lub utrwalają błędne informacje oraz czy szanują prywatność osób fizycznych.
Administracja Bidena wcześniej wprowadziła „kartę praw” jako dobrowolny przewodnik w rozwoju systemów AI, który zawiera pięć zasad, które firmy powinny wziąć pod uwagę w swoich produktach. Obejmują one prywatność danych, ochronę przed dyskryminacją algorytmiczną oraz przejrzystość dotyczącą tego, kiedy i jak używany jest zautomatyzowany system.
Narodowy Instytut Standardów i Technologii opublikował również ramy zarządzania ryzykiem AI, dobrowolne bariery ochronne, z których firmy mogą korzystać, próbując ograniczyć ryzyko szkody dla społeczeństwa.
Davidson zauważył, że wiele agencji federalnych zastanawia się, w jaki sposób obecne przepisy dotyczące ksiąg mogą być stosowane do sztucznej inteligencji. Jednakże rząd federalny był historycznie powolny w reagowaniu na szybko rozwijające się technologie za pomocą przepisów krajowych, szczególnie w porównaniu z krajami europejskimi.
Czytaj także: Sztuczna inteligencja – coraz więcej obaw