Stilgehouden.nl

Categorie: wetenschap

Voor Olympische cheaters verschillen de medicijnen per sport  Olympische atleten die vals spelen, doen het niet allemaal op dezelfde manier, legt een expert uit. Atleten staan binnenkort klaar op vele soorten cursussen en velden tijdens de Olympische Spelen in Tokio – volledig gefocust, goed getraind en tot in de perfectie gevoed. Maar ondanks hun enorme voorbereiding, inclusief jarenlange training, strikte diëten en psychologische voorbereiding, blijft de verleiding voor sommigen helaas te groot om vals te spelen en prestatieverhogende medicijnen te gebruiken om de laatste meter te bereiken of een wereldrecord te verbreken. Doping bestaat waarschijnlijk al zo lang als grote sportevenementen – daterend uit het oude Griekenland, waar folklore vertelt over het gebruik van kruidenextracten, alcohol en zelfs insectensteken als manieren om atletische prestaties te verbeteren. In de jaren zestig gebruikten veel atleten harddrugs zoals cocaïne, amfetaminen en heroïne, met soms fatale gevolgen. Tegenwoordig gebruiken sommige atleten medicijnen zoals EPO, steroïden en bètablokkers als snelle oplossingen om het podium te bereiken. Er zijn echter grote verschillen tussen de soorten middelen die cheaters gebruiken in verschillende disciplines. "De organen en lichaamsdelen die je moet manipuleren om sterker te worden, hangt af van of je bijvoorbeeld een fietser, gewichtheffer of boogschutter bent", zegt Nikolai Nordsborg , professor en hoofd van de afdeling voeding, lichaamsbeweging en sport van de Universiteit van Kopenhagen. Kracht en sprints: steroïden Waar kracht en snelheid centraal staan, is het gebruik van steroïden zoals testosteron de meest voorkomende vorm van doping. “Dit geldt voor gewichtheffers, kogelstoters, boksers en worstelaars, maar ook voor baan- en veldsprinters en zwemmers. Dit komt door het feit dat testosteron onze spieren stimuleert om massa te krijgen, waardoor een individu sterker wordt en daardoor beter in staat is om te presteren”, zegt Nordsborg. Testosteron is buitengewoon moeilijk te detecteren in drugstests omdat atleten het gebruiken voor het opbouwen van spiermassa ruim voor grote evenementen. Hierdoor kunnen ze de effecten van het hormoon realiseren zonder dat het bij dopingcontroles detecteerbaar is nadat de stof niet meer actief is in het lichaam. “Testosteron is echter geenszins goedaardig. Het kan leiden tot een reeks ziekten, waaronder onvruchtbaarheid en hart- en vaatziekten." Uithoudingsvermogen: EPO Omvangrijke spieren zijn niet vereist voor duursporters. “Als we fietsers, marathonlopers en roeiers nemen, hebben ze doorgaans een optimale zuurstofopname nodig. Hierbij speelt de hoeveelheid bloed en de bloedsamenstelling een belangrijke rol. Als gevolg hiervan gebruiken sommige van deze atleten erytropoëtine , een hormoon dat beter bekend staat als EPO. Het gebruik ervan werd vanaf het einde van de jaren tachtig wijdverbreid in de wielersport", zegt Nordsborg. “EPO bevordert de vorming van rode bloedcellen die zuurstof door het lichaam vervoeren, waardoor een renner of hardloper meer energie krijgt om te bewegen en hard te werken. Verschillende onderzoeken suggereren ook dat het gebruik van EPO het uithoudingsvermogen verhoogt.” Hoewel EPO van nature in onze nieren wordt geproduceerd, werd het in 1989 synthetisch vervaardigd en wordt het nu gebruikt voor de behandeling van kanker- en nierpatiënten die niet in staat zijn om zelf genoeg van het hormoon aan te maken, en het wordt ook gebruikt door bloeddopers. Overmatige niveaus van EPO kunnen het bloed verdikken en leiden tot bloedstolsels en hartstilstand. Concentratie en precisie: bètablokkers Ten slotte wijst Nordsborg op een heel andere categorie atleten: degenen die maximale concentratie, precisie en rust nodig hebben. Deze groep omvat boogschutters, golfers en darters. “Atleten in deze disciplines moeten absoluut kalm blijven. Voor hen zijn de meest gebruikte dopingmiddelen bètablokkers , soms gebruikt bij patiënten met ernstige examenangst. Deze medicijnen verlagen de hartslag en bloeddruk, wat het trillen in de handen vermindert en de nervositeit kan verminderen”, zegt Nordsborg. Het gebruik van bètablokkers heeft ook bijwerkingen. Deze komen in de vorm van spiervermoeidheid, duizeligheid en verminderd uithoudingsvermogen. In sommige gevallen kunnen ze zelfs het hart aantasten. Bron: Universiteit van Kopenhagen De post Voor olympische cheaters verschillen drugs per sport verscheen eerst op Futurity .

Voor Olympische cheaters verschillen de medicijnen per sport Olympische atleten die vals spelen, doen het niet allemaal op dezelfde manier, legt een expert uit. Atleten staan binnenkort klaar op vele soorten cursussen en velden tijdens de Olympische Spelen in Tokio – volledig gefocust, goed getraind en tot in de perfectie gevoed. Maar ondanks hun enorme voorbereiding, inclusief jarenlange training, strikte diëten en psychologische voorbereiding, blijft de verleiding voor sommigen helaas te groot om vals te spelen en prestatieverhogende medicijnen te gebruiken om de laatste meter te bereiken of een wereldrecord te verbreken. Doping bestaat waarschijnlijk al zo lang als grote sportevenementen – daterend uit het oude Griekenland, waar folklore vertelt over het gebruik van kruidenextracten, alcohol en zelfs insectensteken als manieren om atletische prestaties te verbeteren. In de jaren zestig gebruikten veel atleten harddrugs zoals cocaïne, amfetaminen en heroïne, met soms fatale gevolgen. Tegenwoordig gebruiken sommige atleten medicijnen zoals EPO, steroïden en bètablokkers als snelle oplossingen om het podium te bereiken. Er zijn echter grote verschillen tussen de soorten middelen die cheaters gebruiken in verschillende disciplines. "De organen en lichaamsdelen die je moet manipuleren om sterker te worden, hangt af van of je bijvoorbeeld een fietser, gewichtheffer of boogschutter bent", zegt Nikolai Nordsborg , professor en hoofd van de afdeling voeding, lichaamsbeweging en sport van de Universiteit van Kopenhagen. Kracht en sprints: steroïden Waar kracht en snelheid centraal staan, is het gebruik van steroïden zoals testosteron de meest voorkomende vorm van doping. “Dit geldt voor gewichtheffers, kogelstoters, boksers en worstelaars, maar ook voor baan- en veldsprinters en zwemmers. Dit komt door het feit dat testosteron onze spieren stimuleert om massa te krijgen, waardoor een individu sterker wordt en daardoor beter in staat is om te presteren”, zegt Nordsborg. Testosteron is buitengewoon moeilijk te detecteren in drugstests omdat atleten het gebruiken voor het opbouwen van spiermassa ruim voor grote evenementen. Hierdoor kunnen ze de effecten van het hormoon realiseren zonder dat het bij dopingcontroles detecteerbaar is nadat de stof niet meer actief is in het lichaam. “Testosteron is echter geenszins goedaardig. Het kan leiden tot een reeks ziekten, waaronder onvruchtbaarheid en hart- en vaatziekten." Uithoudingsvermogen: EPO Omvangrijke spieren zijn niet vereist voor duursporters. “Als we fietsers, marathonlopers en roeiers nemen, hebben ze doorgaans een optimale zuurstofopname nodig. Hierbij speelt de hoeveelheid bloed en de bloedsamenstelling een belangrijke rol. Als gevolg hiervan gebruiken sommige van deze atleten erytropoëtine , een hormoon dat beter bekend staat als EPO. Het gebruik ervan werd vanaf het einde van de jaren tachtig wijdverbreid in de wielersport", zegt Nordsborg. “EPO bevordert de vorming van rode bloedcellen die zuurstof door het lichaam vervoeren, waardoor een renner of hardloper meer energie krijgt om te bewegen en hard te werken. Verschillende onderzoeken suggereren ook dat het gebruik van EPO het uithoudingsvermogen verhoogt.” Hoewel EPO van nature in onze nieren wordt geproduceerd, werd het in 1989 synthetisch vervaardigd en wordt het nu gebruikt voor de behandeling van kanker- en nierpatiënten die niet in staat zijn om zelf genoeg van het hormoon aan te maken, en het wordt ook gebruikt door bloeddopers. Overmatige niveaus van EPO kunnen het bloed verdikken en leiden tot bloedstolsels en hartstilstand. Concentratie en precisie: bètablokkers Ten slotte wijst Nordsborg op een heel andere categorie atleten: degenen die maximale concentratie, precisie en rust nodig hebben. Deze groep omvat boogschutters, golfers en darters. “Atleten in deze disciplines moeten absoluut kalm blijven. Voor hen zijn de meest gebruikte dopingmiddelen bètablokkers , soms gebruikt bij patiënten met ernstige examenangst. Deze medicijnen verlagen de hartslag en bloeddruk, wat het trillen in de handen vermindert en de nervositeit kan verminderen”, zegt Nordsborg. Het gebruik van bètablokkers heeft ook bijwerkingen. Deze komen in de vorm van spiervermoeidheid, duizeligheid en verminderd uithoudingsvermogen. In sommige gevallen kunnen ze zelfs het hart aantasten. Bron: Universiteit van Kopenhagen De post Voor olympische cheaters verschillen drugs per sport verscheen eerst op Futurity .

Waarom mensen boos worden als AI giftige spraak markeert  Nieuw onderzoek werpt licht op waarom kunstmatige intelligentie identificatie van giftige spraak op internet mensen vaak frustreert, ondanks hoge scores op technische tests. Het grootste probleem: er is een enorm verschil tussen het evalueren van meer traditionele AI-taken, zoals het herkennen van gesproken taal, en de veel rommeligere taak om haatzaaiende uitlatingen , intimidatie of verkeerde informatie te identificeren, vooral in de huidige gepolariseerde omgeving. "Het lijkt alsof de modellen bijna perfecte scores krijgen, dus sommige mensen denken dat ze ze kunnen gebruiken als een soort zwarte doos om te testen op toxiciteit", zegt Mitchell Gordon, een promovendus in computerwetenschappen aan de Stanford University die werkte aan de projecteren. “Maar dat is niet het geval. Ze evalueren deze modellen met benaderingen die goed werken als de antwoorden redelijk duidelijk zijn, zoals herkennen of 'java' koffie betekent of de computertaal, maar dit zijn taken waar de antwoorden niet duidelijk zijn." Facebook zegt dat zijn kunstmatige-intelligentiemodellen in de laatste drie maanden van 2020 27 miljoen haatzaaiende uitlatingen hebben geïdentificeerd en verwijderd. In 97% van de gevallen ondernamen de systemen actie voordat mensen de berichten zelfs maar hadden gemarkeerd. Dat is een enorme vooruitgang, en alle andere grote sociale-mediaplatforms gebruiken op vergelijkbare manieren AI-aangedreven systemen. Aangezien mensen elke dag honderden miljoenen items posten, van opmerkingen en memes tot artikelen, is er geen echt alternatief. Geen enkel leger van menselijke moderators kon het alleen bijbenen. Het team hoopt dat hun onderzoek de kloof zal verlichten tussen wat ontwikkelaars denken dat ze bereiken en de realiteit – en hen misschien zal helpen systemen te ontwikkelen die bedachtzamer omgaan met de inherente meningsverschillen rond giftige spraak. Zelfs mensen kunnen het er niet mee eens zijn Er zijn geen eenvoudige oplossingen, omdat er nooit unanieme overeenstemming zal zijn over zeer omstreden kwesties. Om de zaken ingewikkelder te maken, zijn mensen vaak ambivalent en inconsistent over hoe ze reageren op een bepaald stuk inhoud. In één onderzoek bereikten menselijke annotators bijvoorbeeld zelden overeenstemming toen hen werd gevraagd om tweets te labelen die woorden uit een lexicon van haatspraak bevatten. Slechts 5% van de tweets werd door een meerderheid erkend als haatspraak, terwijl slechts 1,3% unanieme uitspraken ontving. In een onderzoek naar het herkennen van verkeerde informatie, waarin mensen uitspraken kregen over ogenschijnlijk ware gebeurtenissen, was slechts 70% het erover eens of de meeste gebeurtenissen wel of niet hadden plaatsgevonden. Ondanks deze uitdaging voor menselijke moderators, behalen conventionele AI-modellen hoge scores bij het herkennen van giftige spraak – .95 "ROCAUC" – een populaire maatstaf voor het evalueren van AI-modellen waarbij 0.5 puur gissen en 1.0 betekent perfecte prestaties. Maar het Stanford-team ontdekte dat de echte score veel lager is – maximaal 0,73 – als je rekening houdt met de onenigheid tussen menselijke annotators. Giftige spraak spotten In een nieuwe studie beoordeelt het team de prestaties van de huidige AI-modellen opnieuw door een nauwkeurigere meting te krijgen van wat mensen echt geloven en hoeveel ze het onderling oneens zijn. Michael Bernstein en Tatsunori Hashimoto, universitair hoofddocent en assistent-professoren computerwetenschappen en faculteitsleden van het Stanford Institute for Human-Centered Artificial Intelligence (HAI) hielden toezicht op het onderzoek. Om een betere meting te krijgen van de werkelijkheidsbeelden, ontwikkelden de onderzoekers een algoritme om de 'ruis' – ambivalentie, inconsistentie en misverstanden – uit de manier waarop mensen dingen als toxiciteit bestempelen, eruit te filteren, waardoor een schatting wordt gemaakt van de hoeveelheid echte onenigheid. Ze richtten zich op hoe herhaaldelijk elke annotator hetzelfde soort taal op dezelfde manier labelde. De meest consistente of dominante reacties werden wat de onderzoekers 'primaire labels' noemden, die de onderzoekers vervolgens gebruikten als een nauwkeurigere dataset die meer van het ware scala aan meningen over potentiële giftige inhoud vastlegde. Het team gebruikte die benadering vervolgens om datasets te verfijnen die veel worden gebruikt om AI-modellen te trainen in het opsporen van toxiciteit, verkeerde informatie en pornografie. Door bestaande AI-statistieken toe te passen op deze nieuwe "onenigheid-gecorrigeerde" datasets, onthulden de onderzoekers dramatisch minder vertrouwen over beslissingen in elke categorie. In plaats van op alle fronten bijna perfecte scores te behalen, behaalden de AI-modellen slechts 0,73 ROCAUC bij het classificeren van toxiciteit en 62% nauwkeurigheid bij het labelen van verkeerde informatie. Zelfs voor pornografie – zoals in "Ik weet het wanneer ik het zie" – was de nauwkeurigheid slechts 0,79. Controverse is onvermijdelijk Gordon zegt dat AI-modellen, die uiteindelijk één enkele beslissing moeten nemen, haatspraak of cyberpesten nooit naar ieders tevredenheid zullen beoordelen. Er zal altijd grote onenigheid zijn. Door menselijke annotators preciezere definities van haatspraak te geven, wordt het probleem misschien ook niet opgelost, omdat mensen uiteindelijk hun echte opvattingen onderdrukken om het 'juiste' antwoord te geven. Maar als sociale-mediaplatforms een nauwkeuriger beeld hebben van wat mensen echt geloven, en ook van welke groepen bepaalde opvattingen hebben, kunnen ze systemen ontwerpen die beter geïnformeerde en opzettelijke beslissingen nemen. Uiteindelijk, zo suggereert Gordon, zullen zowel annotators als leidinggevenden van sociale media waardeoordelen moeten vellen in de wetenschap dat veel beslissingen altijd controversieel zullen zijn. “Gaat dit de meningsverschillen in de samenleving oplossen? Nee”, zegt Gordon. “De vraag is wat je kunt doen om mensen minder ongelukkig te maken. Gezien het feit dat je sommige mensen ongelukkig moet maken, is er dan een betere manier om na te denken over wie je ongelukkig maakt?” Andere co-auteurs van het artikel zijn onderzoekers van Stanford en Apple Inc. Bron: Stanford University Het bericht Waarom mensen boos worden als AI toxische spraak markeert verscheen eerst op Futurity .

Waarom mensen boos worden als AI giftige spraak markeert Nieuw onderzoek werpt licht op waarom kunstmatige intelligentie identificatie van giftige spraak op internet mensen vaak frustreert, ondanks hoge scores op technische tests. Het grootste probleem: er is een enorm verschil tussen het evalueren van meer traditionele AI-taken, zoals het herkennen van gesproken taal, en de veel rommeligere taak om haatzaaiende uitlatingen , intimidatie of verkeerde informatie te identificeren, vooral in de huidige gepolariseerde omgeving. "Het lijkt alsof de modellen bijna perfecte scores krijgen, dus sommige mensen denken dat ze ze kunnen gebruiken als een soort zwarte doos om te testen op toxiciteit", zegt Mitchell Gordon, een promovendus in computerwetenschappen aan de Stanford University die werkte aan de projecteren. “Maar dat is niet het geval. Ze evalueren deze modellen met benaderingen die goed werken als de antwoorden redelijk duidelijk zijn, zoals herkennen of 'java' koffie betekent of de computertaal, maar dit zijn taken waar de antwoorden niet duidelijk zijn." Facebook zegt dat zijn kunstmatige-intelligentiemodellen in de laatste drie maanden van 2020 27 miljoen haatzaaiende uitlatingen hebben geïdentificeerd en verwijderd. In 97% van de gevallen ondernamen de systemen actie voordat mensen de berichten zelfs maar hadden gemarkeerd. Dat is een enorme vooruitgang, en alle andere grote sociale-mediaplatforms gebruiken op vergelijkbare manieren AI-aangedreven systemen. Aangezien mensen elke dag honderden miljoenen items posten, van opmerkingen en memes tot artikelen, is er geen echt alternatief. Geen enkel leger van menselijke moderators kon het alleen bijbenen. Het team hoopt dat hun onderzoek de kloof zal verlichten tussen wat ontwikkelaars denken dat ze bereiken en de realiteit – en hen misschien zal helpen systemen te ontwikkelen die bedachtzamer omgaan met de inherente meningsverschillen rond giftige spraak. Zelfs mensen kunnen het er niet mee eens zijn Er zijn geen eenvoudige oplossingen, omdat er nooit unanieme overeenstemming zal zijn over zeer omstreden kwesties. Om de zaken ingewikkelder te maken, zijn mensen vaak ambivalent en inconsistent over hoe ze reageren op een bepaald stuk inhoud. In één onderzoek bereikten menselijke annotators bijvoorbeeld zelden overeenstemming toen hen werd gevraagd om tweets te labelen die woorden uit een lexicon van haatspraak bevatten. Slechts 5% van de tweets werd door een meerderheid erkend als haatspraak, terwijl slechts 1,3% unanieme uitspraken ontving. In een onderzoek naar het herkennen van verkeerde informatie, waarin mensen uitspraken kregen over ogenschijnlijk ware gebeurtenissen, was slechts 70% het erover eens of de meeste gebeurtenissen wel of niet hadden plaatsgevonden. Ondanks deze uitdaging voor menselijke moderators, behalen conventionele AI-modellen hoge scores bij het herkennen van giftige spraak – .95 "ROCAUC" – een populaire maatstaf voor het evalueren van AI-modellen waarbij 0.5 puur gissen en 1.0 betekent perfecte prestaties. Maar het Stanford-team ontdekte dat de echte score veel lager is – maximaal 0,73 – als je rekening houdt met de onenigheid tussen menselijke annotators. Giftige spraak spotten In een nieuwe studie beoordeelt het team de prestaties van de huidige AI-modellen opnieuw door een nauwkeurigere meting te krijgen van wat mensen echt geloven en hoeveel ze het onderling oneens zijn. Michael Bernstein en Tatsunori Hashimoto, universitair hoofddocent en assistent-professoren computerwetenschappen en faculteitsleden van het Stanford Institute for Human-Centered Artificial Intelligence (HAI) hielden toezicht op het onderzoek. Om een betere meting te krijgen van de werkelijkheidsbeelden, ontwikkelden de onderzoekers een algoritme om de 'ruis' – ambivalentie, inconsistentie en misverstanden – uit de manier waarop mensen dingen als toxiciteit bestempelen, eruit te filteren, waardoor een schatting wordt gemaakt van de hoeveelheid echte onenigheid. Ze richtten zich op hoe herhaaldelijk elke annotator hetzelfde soort taal op dezelfde manier labelde. De meest consistente of dominante reacties werden wat de onderzoekers 'primaire labels' noemden, die de onderzoekers vervolgens gebruikten als een nauwkeurigere dataset die meer van het ware scala aan meningen over potentiële giftige inhoud vastlegde. Het team gebruikte die benadering vervolgens om datasets te verfijnen die veel worden gebruikt om AI-modellen te trainen in het opsporen van toxiciteit, verkeerde informatie en pornografie. Door bestaande AI-statistieken toe te passen op deze nieuwe "onenigheid-gecorrigeerde" datasets, onthulden de onderzoekers dramatisch minder vertrouwen over beslissingen in elke categorie. In plaats van op alle fronten bijna perfecte scores te behalen, behaalden de AI-modellen slechts 0,73 ROCAUC bij het classificeren van toxiciteit en 62% nauwkeurigheid bij het labelen van verkeerde informatie. Zelfs voor pornografie – zoals in "Ik weet het wanneer ik het zie" – was de nauwkeurigheid slechts 0,79. Controverse is onvermijdelijk Gordon zegt dat AI-modellen, die uiteindelijk één enkele beslissing moeten nemen, haatspraak of cyberpesten nooit naar ieders tevredenheid zullen beoordelen. Er zal altijd grote onenigheid zijn. Door menselijke annotators preciezere definities van haatspraak te geven, wordt het probleem misschien ook niet opgelost, omdat mensen uiteindelijk hun echte opvattingen onderdrukken om het 'juiste' antwoord te geven. Maar als sociale-mediaplatforms een nauwkeuriger beeld hebben van wat mensen echt geloven, en ook van welke groepen bepaalde opvattingen hebben, kunnen ze systemen ontwerpen die beter geïnformeerde en opzettelijke beslissingen nemen. Uiteindelijk, zo suggereert Gordon, zullen zowel annotators als leidinggevenden van sociale media waardeoordelen moeten vellen in de wetenschap dat veel beslissingen altijd controversieel zullen zijn. “Gaat dit de meningsverschillen in de samenleving oplossen? Nee”, zegt Gordon. “De vraag is wat je kunt doen om mensen minder ongelukkig te maken. Gezien het feit dat je sommige mensen ongelukkig moet maken, is er dan een betere manier om na te denken over wie je ongelukkig maakt?” Andere co-auteurs van het artikel zijn onderzoekers van Stanford en Apple Inc. Bron: Stanford University Het bericht Waarom mensen boos worden als AI toxische spraak markeert verscheen eerst op Futurity .