oscarnylander - 2018-04-23 09:29 22s

@jens.hunt I for one welcome my new Microsoft overlords 🐧

erik.malm - 2018-04-23 20:11 21s

Riktigt intressant för min del @daniel.winther, finns typ en bransch-standard inom PSD2 (https://www.berlin-group.org/psd2-access-to-bank-accounts). FÄr grÀva igenom hur nÀra dessa Tink ligger.

erik.malm - 2018-04-27 06:58 04s

Behöver göra mig av med ett gÀng gamla hÄrddiskar. Vill gÀrna utplÄna informationen pÄ dem innan det Àr dags för tippen, om nÄgon har en favorit-utility för sÄdant sÄ mottages tips gÀrna.

oscarnylander - 2018-04-27 09:22 00s

DBAN Àr vÀl en klassiker

oscarnylander - 2018-04-27 09:51 33s

https://www.palletsprojects.com/blog/flask-1-0-released/

Flask har kommit ut med en 1.0-release! Intressant.

Flask 1.0 Released

daniel.winther - 2018-04-27 09:54 53s

woop woop! pĂ„ tiden 😄 har ju funnits hur lĂ€nge som helst

oscarnylander - 2018-04-27 09:56 01s

eller hur, mÀrkvÀrdigt att de inte gÄtt till 1.0 Ànnu

erik.malm - 2018-04-27 11:50 44s

Haha, Flask fanns till och med nĂ€r jag skrev ordentligt med Python senast. Tur att jag vĂ€ntade i ca 10 Ă„r sĂ„ att jag inte lĂ€rt mig omogen teknik! ;) Även om jag mer tror att det hĂ€r Ă€r ett fall av att hantera versioner som Linus. https://betanews.com/2018/04/16/linux-kernel-5-0/

Linus Torvalds says Linux kernel v5.0 'should be meaningless'

Following the release of Linux kernel 4.16, Linus Torvalds has said that the next kernel will be version 5.0. Or maybe it won't, because version numbers are meaningless.

oscarnylander - 2018-04-27 11:55 44s

Troligen Ă€r det sĂ„ 🙂

erik.malm - 2018-04-27 11:56 07s

DBAN verkar vara precis rÀtt verktyg @daniel.winther

oscarnylander - 2018-04-27 11:56 27s

*@oscarnylander 😞

teo.roijezon - 2018-04-27 11:58 09s

@erik.malm @oscarnylander anvÀnd inte DBAN för SSD:er

erik.malm - 2018-04-27 11:58 19s

Förr i vÀrlden har jag lÄtit bash skriva frÄn /dev/random över hela disken ett par vÀndor men har inte energi för det den hÀr gÄngen.

teo.roijezon - 2018-04-27 11:58 46s

dom har mycket intern skrivbalansering osv vilket innebÀr att rester kommer finnas kvar anvÀnd https://ata.wiki.kernel.org/index.php/ATA_Secure_Erase istÀllet

erik.malm - 2018-04-27 11:59 54s

Mmm.. Den nivÄ pÄ teknik jag gör mig av med Àr 5200rpms diskar sÄ inte ett problem den hÀr vÀndan. Men lÀr vara relevant nÀsta gÄng jag kör en utrensning.

teo.roijezon - 2018-04-27 12:00 04s

ahh okej ja dÄ borde det rÀcka eller bara dd if=/dev/urandom of=/dev/sdXN bs=1M ett par ggr

oscarnylander - 2018-04-27 12:01 20s

dd: disk destroyer :parrot:

erik.malm - 2018-04-27 12:01 26s

Det Àr min vanliga. Men det Àr fem diskar som kommer behöva behandlas och dÄ slÄr latmasken till

teo.roijezon - 2018-04-27 12:01 32s

ahh, iC

oscarnylander - 2018-04-27 12:01 43s

koppla in alla och kör parallellt!

erik.malm - 2018-04-27 12:02 50s

Om de bara vore thunderbolt sÄ kunde jag daisy-chaina allt! Som en hÄrddisk konga-line!

teo.roijezon - 2018-04-27 12:05 24s

https://www.youtube.com/watch?v=deJ9lpNBZUA

That Mitchell and Webb Look - Posh Dancing

erik.malm - 2018-04-27 12:09 35s

Jag Àr nöjd med hur den hÀr diskussionen slutade. P.S. are we the baddies?

teo.roijezon - 2018-04-27 12:10 58s

tror inte vi har dödskallehattar Ă€n? Johan fĂ„r ta tag i det 😛

joakoles - 2018-04-28 17:47 28s

För ett tag sedan sa jag att jag skulle informera om resultatet av prestandatest-applikationen jag skrev som skulle mĂ€ta prestandan i azure event hub (vilket kan ses som ett kafka-alternativ). Applikationen jag skrev bestĂ„r av tvĂ„ delar: En del som skriver en massa events (med samma storlek som vi skickar i produktion) till event hub och en del som lĂ€ser dessa events frĂ„n event hub. Skriv-delen Ă€r ett azure webjob och lĂ€s-delen Ă€r en azure function. BĂ„da dessa delar kan skalas upp och ut som man vill. Även sjĂ€lva event hub’en kan skalas genom att höja antalet throughput units (TPU) och antalet partitioner (i praktiken mĂ„ste man radera och skapa en ny event hub dĂ„ man inte kan Ă€ndra antalet partitioner i efterhand).

BÄde skriv- och lÀs-delen hanterar intervall. Man kan dÄ ange att varje instans ska skicka tex. 100 meddelanden per sekund under tex. 1 minut och dÀrefter höja till 500 och dÀrefter till 1000 meddelanden per sekund.

LÀs-delen berÀknar lite enkla mÀtdata för att ta reda pÄ prestandan. MÀtdatan lagras inte i databasen för varje event dÄ det skulle pÄverka resultatet mycket. IstÀllet lagras bara mÀtdatan en gÄng per intervall, dvs. tex. en gÄng per minut.

Resultatet visade att throughput blir högt om man skalar upp/ut men att latensen för en del av eventen Ă€r förvĂ„nansvĂ€rt högt trots att man skalat upp/ut (Ă„tminstone blev jag förvĂ„nad). De flesta events gĂ„r igenom event hub’en snabbt men en liten andel tar över en sekund och ibland över 5 sekunder.

Microsoft har sjĂ€lva gjort ett liknande test fast för ett lĂ€ngre flöde och fler events per sekund. Även dĂ€r ser man att en andel av eventen passerar genom flödet mycket lĂ„ngsammare Ă€n genomsnittet. HĂ€lften av eventen passerar flödet pĂ„ mindre Ă€n 1,1 sek medan en del tar mycket lĂ€ngre tid: https://blogs.msdn.microsoft.com/appserviceteam/2017/09/19/processing-100000-events-per-second-on-azure-functions/

Jag vill dock inte pĂ„stĂ„ att mina mĂ€tresultat Ă€r 100% tillförlitliga. Det kan vara sĂ„ att nĂ„got i applikationen jag skrev Ă€r suboptimalt. Dessutom kan klockan skilja sig mellan olika maskiner i azure vilket skulle ge stor effekt pĂ„ mĂ€tresultaten. Jag hörde nĂ„gon berĂ€tta att det Ă€r vanligt att klockan i azure-maskiner Ă€r “korrekt tid +/- 2 sekunder” vilket innebĂ€r ett intervall pĂ„ 4 sekunder. Ett förslag pĂ„ workaround Ă€r att förlita sig pĂ„ databas-serverns klocka för att kompensera för detta. Vid uppstart skulle applikationen (bĂ„de skriv- och lĂ€s-sidan) kunna hĂ€mta tiden frĂ„n db-servern för att ta reda pĂ„ hur den lokala klockan skiljer sig frĂ„n “sanningen” om vi definerar db-serverns klocka som “sanningen” i prestandatestet. Applikationen fĂ„r dĂ„ ta hĂ€nsyn till differensen dĂ€remellan. DĂ€rmed kompenserar man för skillnad i klocka pĂ„ olika maskiner. DĂ„ jag bytt team har jag inte implementerat denna workaround men jag har tipsat teamet om detta.