La gentilezza ai tempi di Siri.

“Adoriamo la nostra Amazon Echo, ma ho paura che stia trasformando nostra figlia in una stronza maleducata”, ha scritto qualche tempo fa Hunter Walk, un investitore della Silicon valley.

Con Alexa non c’è bisogno di dire “per favore” o “grazie”, anzi: il dispositivo risponde meglio se gli si chiede qualcosa bruscamente. “A livello cognitivo, non sono sicuro che un bambino capisca perché si possono dare ordini ad Alexa ma non a una persona”, ha scritto Walk. Come fa una bambina di quattro anni a imparare che gli altri membri della famiglia non sono semplicemente lì per obbedire ai suoi ordini, quando un membro della famiglia è un dispositivo elettronico progettato esattamente per fare questo?

Alexa, come Siri e come tutti gli altri assistenti vocali, preferiscono frasi dirette, concise, non troppo articolate. Questa necessità impoverirà la nostra sensibilità e la nostra educazione?

Emanuele

4 commenti » Scrivi un commento

  1. Il problema non sta negli assistenti vocali, ma nel considerarli come membri della famiglia.

    • Concordo, ciò che però è evidente è che sia marketing sia il nostro approccio immediato di fronte ad essi, portano a rendere questi strumenti come degli “umanoidi” con cui dialogare tranquillamente. Tutti abbiamo provato a chiedere a Siri per gioco “Siri, vuoi sposarmi?“. L’intenzione ovviamente non era quella di una risposta positiva quanto l’effetto di un approccio di base molto vicino a quello che possiamo avere verso un umano. Avvertiamo delle caratteristiche umane su un dispositivo robotico. L’unica differenza è appunto il linguaggio secco e privo di educazione che attualmente portiamo verso altri umani. La domanda è: come può influire su un essere umano avere a disposizione una classe di schiavi che non sono umani ma che trattiamo come se lo fossero?
      Ciao,
      Emanuele

      • Concordo sul marketing e sul nostro approccio. Meno sulla “classe di schiavi”.
        Gli assistenti vocali sono software scritti per fornire un servizio rispondendo a comandi vocali: invece di premere un pulsante o una voce di menu, si parla di fronte ad un microfono. Quindi cambia la modalità per trasmettere l’informazione tra noi e il dispositivo ed eventualmente cambia anche la modalità in cui ci viene restituito l’output, ma la sostanza rimane la stessa. Definiresti “schiavo” il dispositivo con cui interagisci?
        Il problema quindi non è nel dispositivo o nella tecnologia. Bisognerebbe insegnare alle persone, cominciando magari proprio dai bambini, a comprendere che dietro ogni assistente vocale, indipendentemente da quanto è avanzata la sua AI, c’è una macchina che mangia numeri.

        • Esatto, la tendenza però va esattamente nel verso opposto: la personificazione di questi strumenti. Gli è stato dato un nome, una voce, un carattere. Non sono semplici sistemi I/O ma raccolgono tanto altro in maniera quasi invisibile se non ci si sofferma un po’. In questo momento poi hanno ancora sembianze evidentemente artificiali (cubi, cellulari…), tra un po’ cammineranno in giro per casa, il carattere e la fisionomia dell’oggetto verrà avvicinata ancora di più a quella umana. Avremo dei non-umani resi simili agli umani, cui potremo comandare qualsiasi cosa in maniera instancabile (da qui la forzatura dello schiavo) accanto a degli umani – realmente umani – con cui invece dovremo interagire diversamente. Cogliere quella differenza sarà tutta questione di sensibilità ed educazione: è lecito pensare che possa indebolire o quanto meno alterare l’educazione verso altri umani. Probabilmente la nostra generazione non arriverà a vedere quel mondo lì, sicuramente lo farà quella dei nostri nipoti.
          Ciao,
          Emanuele

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.