datastream
@_datastream
不折腾会死星人 爱吐槽 数据控 中度强迫症患者 SRE
You might like
尝试用deepseek-r1:14b做一些辅助编程思考,回想之前的的llama3.1,整体输出质量完全是质的变化。新的一年,需要考虑更大的内存来确保本地有一个ai助手一直在后台运行。
腾讯云搞毛线啊,是不是不会做生意。哪有未经过客户许可在服务器上起程序,直接shell操作整个环境。tmd 脑子有病吧。
Nginx服务器单机密度提升后,连接到了单机200w tcp,估计要看一下tcp port reuse相关的优化了,否则sys cpu用的有点凶。
花了不少时间适配好systemd的DynamicUser后,发现程序日志采集成了问题。翻了systemd的文档后,发现要么不用DynamicUser,要么用root权限采集日志。在日志不得不采集,要合规的前提下,看样子只能用root起日志采集程序了,有点操蛋的设计。
折腾了一把k8s集群从1.23升级到1.28.2,感觉整个过程略微还是有点蛋疼的。现在也能理解为啥总是部署一套新的k8s的原因了。
chrome浏览器搞毛线啊,gmail登录后提示out of sync,然后踢出登录状态。切safari就没有问题。如果不是我用了key做二次认证,我都怀疑账号被入侵了。
发现最终还是notes写文字最顺手,思源笔记啥的还是用于摘录文字啥的合适,复制markdown出来有点太不爽了。
平时用freebsd+zfs做备份感觉还挺爽的,然后遇到需要跑个程序的时候,就发现还是得上linux运行环境。现在开始纠结是否要将机器重装成debian了。
同样的ggml-model-q4_0.bin数据,用alpaca.cpp输出比llama.cpp的输出合理多了,显得更针对问题,而不是似是而非。前提是用英文问,中文的话直接放弃治疗好了。
隔了一个周末发现llama转好的4bits模型很多都可以下载到了,看上去很多人都在finetuning模型。坐等靠谱的出来后,基于这个在家里搞个私有化的服务,当前7B的模型只能说体验版。如果后续模型大小和效果成正比,还得更新一下基础设施。
中招后自己研磨的第一杯咖啡,感觉研磨香气比之前感受更好,有更多细节,但是入口就很糟糕,基本尝不出酸质部分。
United States Trends
- 1. Grammy 234K posts
- 2. Clipse 14.1K posts
- 3. Kendrick 51.6K posts
- 4. Dizzy 8,582 posts
- 5. olivia dean 11.8K posts
- 6. addison rae 18.8K posts
- 7. AOTY 17K posts
- 8. Katseye 99.8K posts
- 9. Leon Thomas 14.8K posts
- 10. gaga 89.2K posts
- 11. #FanCashDropPromotion 3,427 posts
- 12. Kehlani 30K posts
- 13. ravyn lenae 2,557 posts
- 14. lorde 10.7K posts
- 15. Durand 4,380 posts
- 16. Alfredo 2 N/A
- 17. Album of the Year 54.1K posts
- 18. The Weeknd 9,967 posts
- 19. #FridayVibes 6,833 posts
- 20. Alex Warren 5,955 posts
Something went wrong.
Something went wrong.