Strīdi par to, vai Tesla FSD sabrauks pār bērnu vai fiktīvu bērnu, netrāpa.

A nesenais video no TeslasTSLA
-kritiķis Dens O'Dovs no “Dawn Project” parāda testa trasi ar ceļu, kas veidots no konusiem. Tur kāds autovadītājs, kurš izmanto Teslas FSD prototipu, brauc pretī bērnu avārijas manekenam un ietriecas tajā. Tiek apgalvots, ka Telsa FSD nedroši bremzē bērnus. O'Dowd kritiķi apgalvoja, ka videoklips ir viltots vai slikti izveidots, un daži izveidoja paši savas demonstrācijas, tostarp, visiem satraucot, testu veica ar reāliem “brīvprātīgajiem” bērniem. Tikai daži apsvēra jautājumu par to, vai tādam prototipam kā Tesla FSD vajadzētu droši bremzēt bērnus, un tas ir patiesi interesants jautājums.

O'Dowd ir bieži rakstījis, ka vēlas, lai Tesla FSD tiktu aizliegts. Es iepriekš aprakstīju viņa kampaņu, un viņš nesen kandidēja uz Kalifornijas Senāta nomināciju tikai tāpēc, lai rādītu pret Tesla FSD vērstas kampaņas reklāmas. Viņš, protams, ir izraisījis Īlona Maska un Teslas atbalstošās kopienas dusmas. Tādējādi nekavējoties notika sparings. Sākotnējais videoklips, kas ir saistīts ar iepriekš minēto, neparādīja, ka FSD ir aktivizēts, lai gan vēlākos izlaidumos tas tika parādīts. Daži norādīja, ka grūti salasāmie ekrāna attēli liecina, ka vadītājs tur nospiestu pedāli. Citi dati liecina, ka automašīna palēninās vai izdod brīdinājumus, un ir notikuši strīdi par to, cik patiesa ir demonstrācija.

REKLĀMAS

Demonstrācija tika izvēlēta kā provokatīva, jo nekas nav biedējošāks par automašīnu notriekšanu bērniem. Autoavārijās ASV katru dienu iet bojā 3 bērni, un katru gadu aptuveni 170 bērnu gājēji iet bojā no automašīnām. Daudzu cilvēku reakcija ir tāda, ka nav pieņemama neviena tehnoloģija, kas jebkad uzbrauktu pāri bērnam. NHTHT
SA uzsāka izmeklēšanu par Tesla Autopilot (kas ir izlaists produkts) izvietošanu un sāk meklēt FSD prototipu. Citi, piemēram, Ralfs Naders, arī ir aicinājuši izņemt FSD prototipu no ceļa. Pēc tam, kad ļoti neliels skaits cilvēku atkārtoja testu ar īstiem bērniem, NHTSA brīdināja to nedarīt, un Youtube izvilka videoklipus, kuros cilvēki to dara. Tiek ziņots, ka Tesla ir lūgusi noņemt arī videoklipus, kuros redzams, kā viņu automašīna ietriecās testa manekenā. Laikraksts Washington Post ziņo, ka redzējis Teslas vēstuli par pārtraukšanu un pārtraukšanu.

Šis jautājums ir ļoti sarežģīts, un, kā tas nav nekas neparasts, neviens to nesaprot precīzi. Lai gan FSD sistēmu sauc par beta versiju, to precīzāk sauc par prototipu. Vairums izstrādātāju uzskata, ka pašbraucošiem prototipiem (un beta versijām) ir nepieciešams liels testu apjoms uz ceļa, un to dara katra komanda, cilvēku "drošības vadītājiem" uzraugot sistēmu un regulāri iejaucoties, ja tā pieļauj kļūdas, lai novērstu incidentus. Tesla ir neparasta ar to, ka tā ļauj parastiem klientiem iesaistīties šajā testēšanā, savukārt visos citos uzņēmumos ir darbinieki, kuri ar zināmu apmācību veic šo uzdevumu, un parasti katrā transportlīdzeklī ir 2 darbinieki.

Prototipi pēc savas būtības nedarbojas, tostarp tādās svarīgās lietās kā gājēju apstāšanās uz ceļa. Katra komanda, sākot no labākajām, piemēram, Waymo, līdz pat sliktākajām, ir izlaidusi uz ceļa transportlīdzekļus, kas regulāri darītu kaut ko nopietnu sliktu, izņemot iejaukšanos., un lielākā daļa uzskata, ka šādu agrīnās stadijas transportlīdzekļu testēšana bija un joprojām ir nepieciešama, lai panāktu progresu un galu galā izvietotu automašīnas. Pēc izvietošanas automašīnas būs daudz kvalitatīvākas un izglābs dzīvības — daudzas no tām —, tāpēc visi vēlas, lai šī izvietošana notiktu pēc iespējas ātrāk, taču ir daudz jautājumu, kas jāapspriež par to, kā mēs nonākam līdz šim punktam un kad esam sasnieguši. to.

REKLĀMAS

Driver Assist salīdzinājumā ar pašbraukšanu

Papildus jautājumam par to, vai Tesla klientu izmantošana, lai pārbaudītu savu prototipu, ir laba ideja, daudzas problēmas ir saistītas ar atšķirību starp vadītāja palīgsistēmām, kurās ir iesaistīts cilvēks, kas ir pilnībā iesaistīts braukšanā, bet uzrauga sistēmu, nevis fiziski pārvietojas. vadības ierīces un pašpiedziņas sistēmas, kur nav nepieciešama cilvēka uzraudzība (un tiešām transportlīdzeklis var braukt bez neviena).

Daudzi nozares pārstāvji uzskata, ka šīs ir divas diezgan atšķirīgas lietas un ka NHTSA bija kļūda paziņot, ka tās ir tikai divi dažādi automatizācijas tehnoloģiju “līmeņi”. Sterlings Andersons, Aurora pašbraukšanas līdzdibinātājs, domā, ka pāreja no vadītāja palīgsistēmas (vai ADAS, uzlabotai vadītāja palīdzībai) uz pašbraukšanu ir kā mēģinājums nokļūt uz Mēness, veidojot augstākas kāpnes.

Pirmā lielā uzlabotā vadītāja palīgsistēma, kas ļāva cilvēkam pacelt kājas no pedāļiem, bija kruīza kontrole, jo īpaši adaptīvā kruīza kontrole. Vēlāk parādījās joslu uzturēšana, kas ļāva noņemt rokas no stūres, un drīz vien tie abi tika apvienoti tādos produktos kā Tesla “Autopilot”. Kā ADAS (vadītāja palīgrīki) tie ir paredzēti lietošanai ar visu uzmanību.

REKLĀMAS

Lai gan sākotnēji ne visi tam ticēja, šodien vispārējs secinājums ir tāds, ka šīs sistēmas darbojas un nerada briesmas uz ceļa. Cilvēki sākumā šaubījās par pat pamata kruīza kontroli, taču drīz tā kļuva par ļoti izplatītu iezīmi automašīnās.

Tesla Autopilot radīja jaunus jautājumus dažādu iemeslu dēļ, taču visinteresantākā problēma ir saistīta ar faktu, ka tā funkcionalitāte ir nepārprotami labāka par iepriekšējiem produktiem, tostarp vienkāršākām kruīzkontrolēm, taču šis pārākums faktiski var padarīt to bīstamāku un tādējādi zemāku. Rodas dīvains paradokss, kur, jo labāka ir sistēma, jo sliktāks var būt rezultāts, jo pārāka sistēma izraisa “automatizācijas pašapmierinātību”, kur uzraugošais vadītājs pievērš mazāk uzmanības ceļam. (Daži arī uzskata, ka Tesla “Autopilots” un FSD nosaukumi veicina šo pašapmierinātību, un to dara arī publiskā ziņojumapmaiņa par šiem produktiem.)

Tas nav labs paradokss. Mēs vēlamies izstrādāt labākas sistēmas, taču, ja sistēma kopumā pasliktinās, to uzlabojot, ir daudz grūtāk iegūt patiešām labas sistēmas, ceļojot cauri briesmu ielejai, kur lietas pasliktinās, pirms tās uzlabojas. Mūsdienās mēs nekad nevainotu standarta kruīza kontroli par to, ka tā ietrieksies bērnā vai izskandinās sarkano gaismu — šīs sistēmas bija daudz vienkāršākas, un tām nebija nekādu iespēju izvairīties no šīm kļūdām. Taču daudzi vēlas vainot daudz pārāko sistēmu, kas apstājas uz lielāko daļu šķēršļu, jo tā neapstājas uz 100% — lai gan neviena sistēma nekad nebūs tik perfekta, lai izvairītos no 100% kļūdu, un lai gan arī cilvēki nebūs perfekti.

REKLĀMAS

Es piedalījos pirmo pašbraukšanas testēšanas likumu izstrādē pasaulē Nevadā un Kalifornijā. Spēlētāji vienojās, ka ir jābūt dažiem pamatnoteikumiem, kā veikt testēšanu uz ceļiem (iepriekšējie noteikumi to neaizliedza, jo, protams, neviens nekad to nedomāja darīt.) Tajā pašā laikā autoražotāji, kas pārdod ADAS instrumentus, to darīja. nevēlas, lai uz viņu ADAS automašīnām attiektos pašbraukšanas testu noteikumi, tāpēc ADAS darbība tika uzskatīta par tādu, uz kuru šie noteikumi neattiecas.

Jo īpaši Kalifornijā tas radīja atklātu jautājumu. Visas pašbraukšanas pārbaudes (ar dažiem neseniem izņēmumiem) veic ar uzrauga drošības vadītāju. Tādā veidā tas ir ļoti līdzīgi braukšanai ar ADAS automašīnu. Likumā nebija skaidra atšķirība, kas ir radījusi dažas interesantas situācijas. Entonijs Levandovskis, kurš arī piedalījās noteikumu izstrādē, vēlāk bija Uber vadītājsUBER
ATG. Viņš paziņoja, ka, tā kā visas viņu automašīnas tajā laikā darbojās tikai ar drošības vadītāju, tas bija ADAS, un Uber nebija jāievēro pašbraukšanas pārbaudes noteikumi. Kalifornijas DMV teica nē, ka saskaņā ar šo loģiku neviens nepārbauda pašbraukšanu, un tas nebija likuma mērķis. Viņi teica Uber, ka viņiem ir jāreģistrējas kā pašbraucošiem testa transportlīdzekļiem, pretējā gadījumā viņi noņems Uber automašīnu numura zīmes, izmantojot savas īpašās spējas. Uber to ievēroja.

REKLĀMAS

DMV izmantoja pieeju, ka, ja jūs mēģināt izveidot pašbraukšanas sistēmu, lai gan tā bija agrīna nepilnīga sistēma, kurai bija nepieciešama uzraudzība un kura vienmēr tika uzraudzīta, jūs būtu jāuzskata par pašbraukšanas testēšanas uzņēmumu, uz kuru attiecas noteikumi.

Neskatoties uz to, Tesla turpina to pašu pieeju. Tā kā Tesla noteikti ir ADAS produkts, viņi nekad neziņo valstij par pašbraukšanas testiem. Līdz šim DMV ir ļāvis tam slīdēt — pat Tesla darbinieku veiktās Tesla FSD pārbaudes, ko ir ļoti grūti atšķirt no tā, ko viņi apturēja Uber. DMV to varētu labi regulēt. Bet kā ar klientu izmantošanu, kur tas oficiāli (ja lasāt sīko druku un ignorējat nosaukumu) ir autovadītāja palīgrīks?

Bet šķiet, ka tas darbojas

Galvenais risinājums tam bija veidi, kā nodrošināt, ka uzraudzības uzmanība joprojām ir augsta. Šim nolūkam ir dažādi paņēmieni, tostarp autovadītāja uzraudzība dažādos veidos un viņu uzmācīšana, ja viņš nepievērš uzmanību, vai, kā minēts, ir apmācīti profesionāli autovadītāji vai pat viņu komanda ar vairākām acīm uz ceļu. Daudzus gadu desmitus mēs esam apmācījuši pusaudžu vecuma autovadītājus autoskolās, izmantojot instruktoru, kurš var satvert stūri un kuram ir sava bremze, lai apturētu automašīnu, un šī sistēma ir strādājusi ļoti labi.

REKLĀMAS

Līdz šim spēcīgais secinājums ir tāds, ka tas darbojas. Lielo pašpiedziņas uzņēmumu, piemēram, Waymo, drošības rādītāji ir priekšzīmīgi. Waymo ziņoja, ka 20. gadā ir nobraukti vairāk nekā 2021 miljoni jūdžu, veicot pārbaudes ar drošības vadītājiem, un šajā laikā ir notikuši, iespējams, 2 negadījumi vainas dēļ. Vidēji šajā laika posmā cilvēki piedzīvos aptuveni 40 negadījumus. Tāpat kā braukšanas studentiem ar braukšanas instruktoriem veicas daudz labāk nekā tikko licencētiem vadītājiem, arī uzraudzības sistēma nepārprotami darbojas, un šie transportlīdzekļi faktiski rada mazāku risku sabiedrībai, nekā to darītu vienkārša braukšana.

Vismaz ASV, ja neviens negūst traumas vai vismaz ja riska līmenis ir mazāks par parasto braukšanu, darbība parasti netiktu regulēta. ASV pieeja ir daudz pieļaujošāka — jums nav jāpierāda, ka tas, ko darāt, ir drošs, taču, ja tas izrādīsies nedrošs, jūs varat tikt apturēts un atzīts par atbildīgu par jebkādu nodarīto kaitējumu. Dažās citās valstīs regulatoriem būtu iepriekš jāizlemj, vai kaut kas ir drošs, kas ir daudz augstāka latiņa, kas daudz mazāk veicina inovāciju.

Protams, vienā slavenajā gadījumā drošības vadītāja pieeja izraisīja letālu iznākumu, kad Uber ATG transportlīdzeklis Arizonā nogalināja gājēju. NTSB izmeklēšanā un vēlākajās tiesu lietās tika konstatēts, ka drošības vadītājs ir nolaidīgs (viņa skatījās televizoru, nevis strādāja), lai gan Uber tika vainots arī par sliktu drošības vadītāju pārvaldības kultūru, kas veicināja šo kļūdu. Tomēr svarīgs secinājums ir tāds drošības vadītāja sistēma darbojas un pati nepakļauj sabiedrību nepamatotam riskam, lai gan acīmredzami ir iespējams, ka cilvēku drošības vadītāji ir neuzmanīgi un rada lielu risku.

REKLĀMAS

Tāda ir sistēma ar apmācītiem apmaksātiem autovadītājiem. Tesla iet tālāk, un parasti klienti to dara. Ir bijuši vairāki incidenti, kuros Tesla vadītāji nepārprotami ir bijuši nolaidīgi, uzraugot produktu Autopilot, un ir notikušas avārijas, tostarp letālas. Tomēr Tesla automašīnas ar Autopilotu nobrauc daudz vairāk jūdžu nekā jebkura pašbraucoša komanda, tāpēc negatīvu un pat traģisku notikumu klātbūtne ne vienmēr liecina, ka sistēma pakļauj sabiedrību lielākam riskam.

Katru ceturksni Tesla publicē maldinošu statistiku, kurā teikts, ka autovadītājiem, kuri izmanto Autopilotu, ir labāki drošības rādītāji nekā tiem, kuri to neizmanto, lai gan daži Autopilota lietotāji ir nolaidīgi. Lai gan šie skaitļi ir līdzvērtīgi meliem, Es un citi esam mēģinājuši mainīt reālos skaitļus, un reālie skaitļi nav tik slikti, un liecina, ka Autopilota lietotājiem ir līdzīgs drošības līmenis kā nelietotājiem. Lai gan tas nav pārāks, tas arī nepakļauj cilvēkus papildu riskam. Rezultāts ir pietiekami tuvu, lai NHTSA veiktu izmeklēšanu par Tesla avārijām ar operatīvajiem transportlīdzekļiem. Nav zināms, vai viņi izmantos piesardzības pieeju vai aplūkos vispārējos drošības rādītājus.

Daudzi ir ierosinājuši, ka Tesla varētu uzlabot savu rekordu ar labāku vadītāju uzraudzību. Standarta uzraudzība vienkārši prasa, lai vadītājs regulāri pieliktu spēku ritenim. Citiem uzņēmumiem ir kameras, kas skatās autovadītāja acis, lai pārliecinātos, ka viņi skatās uz ceļu — ja Uber ATG to būtu izdarījis, viņi būtu novērsuši viņu nāvi. Tesla nesen ir sākusi izmantot arī vadītāja skatiena uzraudzību.

REKLĀMAS

Jāpiebilst, ka aprēķins, kas parāda Tesla Autopilot drošību kā līdzīgu parastai braukšanai, ir utilitārs. Faktiski tas ir apvienojums ar lielāku negadījumu skaitu starp maziem nolaidīgiem Autopilota lietotājiem, kuri ignorē ceļu vai nonāk pašapmierinātībā ar automatizāciju, un labāku drošības rādītāju no tiem, kuri ir rūpīgi. Mums tas ir filozofiski grūti — mums nepatīk, ka dažiem cilvēkiem ir lielāks risks, lai gan lielākam skaitam cilvēku ir mazāks risks. Mums tas tik ļoti nepatīk, ka mēs varētu atņemt čaklajiem cilvēkiem rīku, kas padara viņus drošākus, lai aizsargātu nolaidīgos, lai gan tas nav mūsu mērķis.

Kas par FSD

Iepriekš minētie dati attiecas uz Autopilot, kas ir piegādes produkts. Tesla FSD nav piegādes produkts. Viņi to sauc par “beta” (kas ir gandrīz pabeigts produkts pēdējā testēšanas fāzē pirms izlaišanas), taču tas tā nebūt nav. Tagad viņiem ir vairāk nekā 100,000 15,000 Tesla īpašnieku, kuri to izmēģina. Lai to izmantotu, īpašniekam ir jāmaksā nodeva (tagad līdz USD XNUMX XNUMX), lai iepriekš pasūtītu iespējamo FSD sistēmu, un jānokārto sava veida drošas braukšanas eksāmens, lai tiktu iekļauts testēšanas grupā. Drošas braukšanas eksāmens lielākoties ir fiktīvs un nepārbauda, ​​ko jūs patiešām vēlētos šim uzdevumam, taču tas nozīmē, ka ne visi, kas maksā, to saņem.

Viņi brīdina autovadītājus, ka sistēmā ir daudz kļūdu un tai ir nepieciešama pastāvīga uzraudzība, piemēram, ADAS, sakot: "Tas izdarīs nepareizu darbību sliktākajā laikā." Tas ir diezgan skaidrs apgalvojums, taču tajā pašā laikā nosaukums “pilnīga pašbraukšana” acīmredzami rada tēlu, kas atšķiras no ADAS. Esmu braucis ar šo sistēmu un novērtējis, ka tā veiktspēja ir diezgan slikta kā pašbraucošai sistēmai.

REKLĀMAS

Neskatoties uz pretējo intuīciju, šķiet, ka Teslas pieeja darbojas. Ar 100,000 XNUMX autovadītāju sistēma darbojas miljoniem jūdžu garumā (lai gan nav publisku datu par to, cik daudz katrs autovadītājs izmanto sistēmu.) Mēs arī zinām, ka visiem negadījumiem, kas saistīti ar FSD pārbaudi, ir liela sabiedrības kontrole. sistēmu, un tikai neliels skaits nelielu incidentu ir kļuvuši publiski pieejami. Lai gan daži Tesla FSD testētāji ir tik lieli Tesla fani, ka viņi varētu slēpt notikušo negadījumu, ir ļoti maz ticams, ka notiek ievērojams skaits lielu negadījumu un neviens netiek atklāts. Visticamāk, ka visiem nopietniem policijas ziņotajiem negadījumiem, īpaši traumu gadījumiem, tiks pievērsta uzmanība, tāpat kā Autopilotam.

Un tomēr mēs tos neredzam. Lai gan šī nav patiesa zinātniska analīze, šķiet, ka Tesla FSD programma pašlaik neapdraud sabiedrību. Tas varētu būt saistīts ar to, cik slikta ir sistēma. Lielākā daļa autovadītāju zina, ka būtu patiešām muļķīgi nepievērst uzmanību šai sistēmai tās pašreizējā stāvoklī. Iespējams, ka, uzlabojoties, tas mainīsies. Ja ņem vērā pamata kruīza kontroli, kas ir daudz primitīvāka, tā darbojas, jo neviens neuzdrošināsies to lietošanas laikā nepievērst uzmanību ceļam.

REKLĀMAS

Teslas nosaukuma piešķiršana

Tesla nepalīdz ar saviem produktu nosaukumiem. Daudzi ir kritizējuši Autopilotu kā nosaukumu, jo sabiedrībā valda (viltus) priekšstats, ka lidmašīnu autopiloti lidmašīnu vada paši. Patiesībā gaisa kuģa autopilots ir ievērojami, daudz vienkāršāka sistēma nekā Teslas automašīnas Autopilots, un tas darbojas tikai tāpēc, ka, atrodoties gaisā, jūs esat ļoti tālu no visa, kam varētu trāpīt. Tomēr tas neaptur maldīgo sabiedrības priekšstatu. Ar FSD ir vēl sliktāk. Tas vēl nav pašbraukšanas līmenī, pat ne tuvu, un tas noteikti nav "pilns". Šī neskaidrība lika Waymo atteikties no termina pašbraukšana, lai aprakstītu savu produktu, jo baidījās, ka Tesla ir nepareizi definējusi šo terminu sabiedrībā.

Teslai saviem produktiem nav vajadzīga lielāka ažiotāža. Viņi pārdod visu, ko var izgatavot. Ir mulsinoši, ka viņi apzināti izmanto šos nosaukumus, nevis nepietiekami novērtē un sniedz pārāk daudz. Viņi glābtu sevi no daudzām bēdām, izņemot “visa publicitāte ir laba reklāma”.

Vai tas ir pareizi, ja Tesla trāpīs bērna izmēra manekenam?

Pārsteidzošā atbilde ir "iespējams". Visas testēšanas prototipu sistēmas darīs līdzīgas lietas, un, aizliedzot visu prototipu testēšanu, nav iespējams pieprasīt pilnību pat tik aizraujošā jautājumā kā avārijas ar bērniem. Ir grūti izveidot regulējošu režīmu, kas aizliegtu Tesla FSD, kas arī neaizliedz vai nepalēnina ļoti svarīgas tehnoloģijas attīstību, kas ar laiku izglābs miljoniem dzīvību. Miljoniem dzīvību nav mazums, tas būs viens no lielākajiem sasniegumiem drošības jomā cilvēces vēsturē.

REKLĀMAS

Maksimāli mēs varētu mēģināt definēt lietas tā, lai tie, kas uzrauga šādas pārbaudes sistēmas, atbilstu noteiktiem kritērijiem. Mēs varētu uzstāt, ka viņi saņem labāku uzraudzību (ko Tesla dara). Mēs varētu lūgt viņiem būt profesionāliem vai nokārtot pārbaudi, bet tad mēs izveidosim iestādi, kas nosaka un izpilda šos testus, kas būtu apgrūtinoši. Par braukšanas instruktoru var kļūt, tikai nokārtojot rakstisku pārbaudījumu un iegūstot apliecību par labu veselību, netiek veikta prasmju pārbaude dzīvajā.

Tomēr mēs varētu definēt noteikumu kopumu, kas var uzraudzīt prototipa sistēmu, un tas varētu apturēt Tesla darbību. Taču tas nozīmētu iekrist paradoksā “jo labāk, jo vairāk mums tas nepatīk”. Mēs nevēlamies apgrūtināt šīs ielejas šķērsošanu, lai kļūtu par labāku sistēmu. Patiesais jautājums ir par to, kāpēc mēs vispār gribētu tur doties, ja neviens netiek cietis. Pašlaik nav ziņu par ievainotiem cilvēkiem, noteikti ne tādā līmenī, kas liecinātu, ka pastāv lielāks risks nekā parastai braukšanai. Mēs nevēlamies iekrist lietu aizlieguma lamatās, jo mums ir intuīcija, ka tās ir bīstamas. Mēs tikai vēlamies aizliegt lietas, kas patiesībā ir bīstamas.

Pilnīgi iespējams, ka Tesla FSD testēšana vēlāk kļūs pārāk bīstama. Tas var notikt automatizācijas pašapmierinātības vai sistēmas izmaiņu dēļ. Ir saprātīgi, ja Tesla tiek lūgts ziņot iestādēm, cik daudz incidentu notiek sistēmas testēšanas laikā, lai mēs varētu zināt, vai un kad tā kļūst bīstama. O'Dowd pieeja “mums tas būtu jāaizliedz, jo man šķiet, ka tas būtu bīstami” ir nepareiza, vismaz ASV.

REKLĀMAS

Lasiet un atstājiet komentārus šeit

Avots: https://www.forbes.com/sites/bradtempleton/2022/08/25/the-argument-over-whether-tesla-fsd-will-run-over-a-child-or-dummy-child- netrāpa/