O zaufaniu do sztucznej inteligencji, poufności i bezpieczeństwie urządzeń mobilnych i doskonaleniu ciągłości działania.

„Superinteligentna AI będzie świetnie radzić sobie z osiąganiem celów, a jeśli te cele nie będą spójne z naszymi, to będziemy mieli problem" – mówił profesor Stephen Hawking w czerwcu 2016 roku.

Jak wynika z badania „Why addressing ethical questions in AI will benefit organizations" niemal 9 na 10 ankietowanych menedżerów ma świadomość występowania sytuacji, w których sztuczna inteligencja skutkowała problemami natury etycznej, a 77% kadry kierowniczej nie jest przekonana co do etyki oraz transparentności systemów AI w swoich organizacjach. Jednym słowem – nie możemy tylko korzystać z AI, musimy jej ufać. Z tego założenia wyszła też KE, która opublikowała dokument „Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji". Zawiera on fundamentalne wymagania w zakresie tworzenia, wykorzystywania i oceny systemów opartych na AI, przy czym szczególny nacisk położony jest na ochronę praw podstawowych obywateli.

W miarę  rozwoju nowych produktów i usług oraz wprowadzania technologii AI,  jej powszechne zastosowanie będzie sukcesem tylko wtedy, jeśli ludzie poczują, że mogą tej technologii zaufać. O wiarygodności systemów AI oraz o roli normalizacji w jej wdrażaniu piszemy w tym numerze.

W numerze:

  • BHP w normie
  • Budowanie odporności
  • Zaufanie podstawą wszystkiego
  • Zrównoważenie poufności, bezpieczeństwa i wygody w urządzeniach mobilnych
  • Laminowane panele podłogowe
  • ORGANY TECHNICZNE – październik 2019