Som software og AI udvikler, så kan jeg ikke undgå at se hvordan dette er den sædvanelige glidebane mod noget vi endnu mindre kan styre.
Software fejler, AI fejler, Software styret AI vil fejle, og fælles for det alt sammen, så har det ikke indbygget moral og etik begreber, eller følelsen af medmenneskelighed som jeg da godt er klar over man i mange år har forsøgt at hjernevaske ud af visse mennesker for at gøre dem til de perfekte soldater.
Det er dog temmelig svært at fjerne alle menneskers indre "bløde punkt", som gør at selv de værste typisk har et eller andet i dem som holder dem fra at begå de ultimative forbrydelser mod hele menneskeheden. Om ikke andet så vil menneskets selvopholdelses drift sørge for at selv det mest hjernevaskede menneske ender op med at ønske at alliere sig med andre mennesker, hvorfor dennes handlinger typisk ikke vil gå imod menneskeheden som helhed.
Det kan ikke siges at være det samme for software og AI baserede kæmpere.
Der går ikke mange år før det bliver accepteret at de opererer fuldt autonome, og selv beslutter hvornår der skal trykkes på aftrækkeren. Det foregår allerede idag, men er dog stadig ikke generelt accepteret.
Hvordan sikrer man sig at selvlærende computere lærer at have empati for mennesker, og at denne tillærte empati fortsætter uanset hvad de måtte blive udsat for i fremtiden?
Som sagt, så er det eneste der holder et menneske på bare lidt rette vej, er selvopholdelses driften. Den vil en maskine måske kunne have overfor et vigtigt menneske der skal eksistere for at maskinen kan fungere, men den dag mennesket er overflødigt, vil maskinen formentlig ende med at betragte mennesket som en fjende som skal bekæmpes for selv at kunne overleve.
Det er dystre tider fremover....