лицо распознавать давно умеют. сейчас распознается фигура человека, направление движения, количество. на основании этого уже принимается решение о маневре.
датчики это просто датчики, ИИ уже на основе показаний этих датчиков должен принимать решение.
Ну решение то он принимает все равно только о том, какой из наборов действий, заложенных в него человеком, применить в данном случае.
И если программисту скажут - закладывай что тот, кто выскочил на дорогу - нарушитель и он не прав и если нет возможности его безопасно объехать, то пассажирами не рисковать, давить нарушителя - он это и заложит, а робот выполнит. Но никаким личностным решением тут и не пахнет.
Личностное решение принимает тот, кто говорит - программируй то или это.
Человек, в сущности, точно так же действует, как этот компьютер, только что прям вот программиста с клавиатурой нету. Жизнь нас программирует, мы сами себя программируем, те, кто нас окружает - нас программируют... Ну и реклама там всякая, сми... Все, кому не лень, короче.
Но вот в отличие от компьютера - у нас есть некий морально-этический блок, понятия хорошо-плохо, справедливо-несправедливо - и, принимая решение о том, какой набор действий реализовывать - мы в большой мере именно этим блоком руководствуемся.
Вот когда его формализуют и смогут прописать для использования ИИ - тогда он и станет личностью. И на него можно будет возлагать ответственность за принятые решения. И, возможно, наказывать, судить и т.п. Если ему пропишут или у него спонтанно возникнет способность ощущать страдания, потому что без такой способности наказание не имеет смысла.