O zaufaniu do sztucznej inteligencji, poufności i bezpieczeństwie urządzeń mobilnych i doskonaleniu ciągłości działania.
„Superinteligentna AI będzie świetnie radzić sobie z osiąganiem celów, a jeśli te cele nie będą spójne z naszymi, to będziemy mieli problem" – mówił profesor Stephen Hawking w czerwcu 2016 roku.
Jak wynika z badania „Why addressing ethical questions in AI will benefit organizations" niemal 9 na 10 ankietowanych menedżerów ma świadomość występowania sytuacji, w których sztuczna inteligencja skutkowała problemami natury etycznej, a 77% kadry kierowniczej nie jest przekonana co do etyki oraz transparentności systemów AI w swoich organizacjach. Jednym słowem – nie możemy tylko korzystać z AI, musimy jej ufać. Z tego założenia wyszła też KE, która opublikowała dokument „Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji". Zawiera on fundamentalne wymagania w zakresie tworzenia, wykorzystywania i oceny systemów opartych na AI, przy czym szczególny nacisk położony jest na ochronę praw podstawowych obywateli.
W miarę rozwoju nowych produktów i usług oraz wprowadzania technologii AI, jej powszechne zastosowanie będzie sukcesem tylko wtedy, jeśli ludzie poczują, że mogą tej technologii zaufać. O wiarygodności systemów AI oraz o roli normalizacji w jej wdrażaniu piszemy w tym numerze.
W numerze:
- BHP w normie
- Budowanie odporności
- Zaufanie podstawą wszystkiego
- Zrównoważenie poufności, bezpieczeństwa i wygody w urządzeniach mobilnych
- Laminowane panele podłogowe
- ORGANY TECHNICZNE – październik 2019