oscarnylander - 2018-04-23 09:29 22s
@jens.hunt I for one welcome my new Microsoft overlords đ§
erik.malm - 2018-04-23 20:11 21s
Riktigt intressant för min del @daniel.winther, finns typ en bransch-standard inom PSD2 (https://www.berlin-group.org/psd2-access-to-bank-accounts). FÄr grÀva igenom hur nÀra dessa Tink ligger.
erik.malm - 2018-04-27 06:58 04s
Behöver göra mig av med ett gÀng gamla hÄrddiskar. Vill gÀrna utplÄna informationen pÄ dem innan det Àr dags för tippen, om nÄgon har en favorit-utility för sÄdant sÄ mottages tips gÀrna.
oscarnylander - 2018-04-27 09:22 00s
DBAN Àr vÀl en klassiker
oscarnylander - 2018-04-27 09:51 33s
https://www.palletsprojects.com/blog/flask-1-0-released/
Flask har kommit ut med en 1.0-release! Intressant.
daniel.winther - 2018-04-27 09:54 53s
woop woop! pĂ„ tiden đ har ju funnits hur lĂ€nge som helst
oscarnylander - 2018-04-27 09:56 01s
eller hur, mÀrkvÀrdigt att de inte gÄtt till 1.0 Ànnu
erik.malm - 2018-04-27 11:50 44s
Haha, Flask fanns till och med nĂ€r jag skrev ordentligt med Python senast. Tur att jag vĂ€ntade i ca 10 Ă„r sĂ„ att jag inte lĂ€rt mig omogen teknik! ;) Ăven om jag mer tror att det hĂ€r Ă€r ett fall av att hantera versioner som Linus. https://betanews.com/2018/04/16/linux-kernel-5-0/
oscarnylander - 2018-04-27 11:55 44s
Troligen Ă€r det sĂ„ đ
erik.malm - 2018-04-27 11:56 07s
DBAN verkar vara precis rÀtt verktyg @daniel.winther
oscarnylander - 2018-04-27 11:56 27s
*@oscarnylander đ
teo.roijezon - 2018-04-27 11:58 09s
@erik.malm @oscarnylander anvÀnd inte DBAN för SSD:er
erik.malm - 2018-04-27 11:58 19s
Förr i vÀrlden har jag lÄtit bash skriva frÄn /dev/random över hela disken ett par vÀndor men har inte energi för det den hÀr gÄngen.
teo.roijezon - 2018-04-27 11:58 46s
dom har mycket intern skrivbalansering osv vilket innebÀr att rester kommer finnas kvar anvÀnd https://ata.wiki.kernel.org/index.php/ATA_Secure_Erase istÀllet
erik.malm - 2018-04-27 11:59 54s
Mmm.. Den nivÄ pÄ teknik jag gör mig av med Àr 5200rpms diskar sÄ inte ett problem den hÀr vÀndan. Men lÀr vara relevant nÀsta gÄng jag kör en utrensning.
teo.roijezon - 2018-04-27 12:00 04s
ahh okej
ja dÄ borde det rÀcka
eller bara dd if=/dev/urandom of=/dev/sdXN bs=1M
ett par ggr
oscarnylander - 2018-04-27 12:01 20s
dd: disk destroyer
:parrot:
erik.malm - 2018-04-27 12:01 26s
Det Àr min vanliga. Men det Àr fem diskar som kommer behöva behandlas och dÄ slÄr latmasken till
teo.roijezon - 2018-04-27 12:01 32s
ahh, iC
oscarnylander - 2018-04-27 12:01 43s
koppla in alla och kör parallellt!
erik.malm - 2018-04-27 12:02 50s
Om de bara vore thunderbolt sÄ kunde jag daisy-chaina allt! Som en hÄrddisk konga-line!
teo.roijezon - 2018-04-27 12:05 24s
erik.malm - 2018-04-27 12:09 35s
Jag Àr nöjd med hur den hÀr diskussionen slutade. P.S. are we the baddies?
teo.roijezon - 2018-04-27 12:10 58s
tror inte vi har dödskallehattar Ă€n? Johan fĂ„r ta tag i det đ
joakoles - 2018-04-28 17:47 28s
För ett tag sedan sa jag att jag skulle informera om resultatet av prestandatest-applikationen jag skrev som skulle mĂ€ta prestandan i azure event hub (vilket kan ses som ett kafka-alternativ). Applikationen jag skrev bestĂ„r av tvĂ„ delar: En del som skriver en massa events (med samma storlek som vi skickar i produktion) till event hub och en del som lĂ€ser dessa events frĂ„n event hub. Skriv-delen Ă€r ett azure webjob och lĂ€s-delen Ă€r en azure function. BĂ„da dessa delar kan skalas upp och ut som man vill. Ăven sjĂ€lva event hubâen kan skalas genom att höja antalet throughput units (TPU) och antalet partitioner (i praktiken mĂ„ste man radera och skapa en ny event hub dĂ„ man inte kan Ă€ndra antalet partitioner i efterhand).
BÄde skriv- och lÀs-delen hanterar intervall. Man kan dÄ ange att varje instans ska skicka tex. 100 meddelanden per sekund under tex. 1 minut och dÀrefter höja till 500 och dÀrefter till 1000 meddelanden per sekund.
LÀs-delen berÀknar lite enkla mÀtdata för att ta reda pÄ prestandan. MÀtdatan lagras inte i databasen för varje event dÄ det skulle pÄverka resultatet mycket. IstÀllet lagras bara mÀtdatan en gÄng per intervall, dvs. tex. en gÄng per minut.
Resultatet visade att throughput blir högt om man skalar upp/ut men att latensen för en del av eventen Ă€r förvĂ„nansvĂ€rt högt trots att man skalat upp/ut (Ă„tminstone blev jag förvĂ„nad). De flesta events gĂ„r igenom event hubâen snabbt men en liten andel tar över en sekund och ibland över 5 sekunder.
Microsoft har sjĂ€lva gjort ett liknande test fast för ett lĂ€ngre flöde och fler events per sekund. Ăven dĂ€r ser man att en andel av eventen passerar genom flödet mycket lĂ„ngsammare Ă€n genomsnittet. HĂ€lften av eventen passerar flödet pĂ„ mindre Ă€n 1,1 sek medan en del tar mycket lĂ€ngre tid: https://blogs.msdn.microsoft.com/appserviceteam/2017/09/19/processing-100000-events-per-second-on-azure-functions/
Jag vill dock inte pĂ„stĂ„ att mina mĂ€tresultat Ă€r 100% tillförlitliga. Det kan vara sĂ„ att nĂ„got i applikationen jag skrev Ă€r suboptimalt. Dessutom kan klockan skilja sig mellan olika maskiner i azure vilket skulle ge stor effekt pĂ„ mĂ€tresultaten. Jag hörde nĂ„gon berĂ€tta att det Ă€r vanligt att klockan i azure-maskiner Ă€r âkorrekt tid +/- 2 sekunderâ vilket innebĂ€r ett intervall pĂ„ 4 sekunder. Ett förslag pĂ„ workaround Ă€r att förlita sig pĂ„ databas-serverns klocka för att kompensera för detta. Vid uppstart skulle applikationen (bĂ„de skriv- och lĂ€s-sidan) kunna hĂ€mta tiden frĂ„n db-servern för att ta reda pĂ„ hur den lokala klockan skiljer sig frĂ„n âsanningenâ om vi definerar db-serverns klocka som âsanningenâ i prestandatestet. Applikationen fĂ„r dĂ„ ta hĂ€nsyn till differensen dĂ€remellan. DĂ€rmed kompenserar man för skillnad i klocka pĂ„ olika maskiner. DĂ„ jag bytt team har jag inte implementerat denna workaround men jag har tipsat teamet om detta.