亚麻 Alexa 电面跪经

刚刚面完。新鲜热辣。。。。
开头。对面的面试官拿着我旧版本的简历开始问我经历。不知道为啥HR给了以前亚马逊系统里面的简历。
一通聊经历后,开始抓着项目了解。其中问了L1,L2。这点准备过,还是比较自信的。
但是噩梦开始了。。。首先问了下如果你建立了模型后,有新的数据用于预测未来,但是你并不知道这个新的数据的label的时候,如何判断模型是否能预测准确,是否需要重新train模型。
这里呆滞了很久,想到了t-test来处理,但是也不对啊,因为要是模型预测错了,但是相关的distribution在以前见过呢?求高人指点。
然后开始Coding测试。。。LZ为了这个面试,洗心革面刷题,感觉还是有点自信的。。。结果上来考了一题。。我泪崩了。。。。
让我手动写判断word collocation的code。。给定一堆sentence,从里面找出new york这些word collocation。。。。
我承认我以前是用package,没细思这里面的实现。。。而且紧张的不知道怎么写lambda。。。。
最后胡写海写算是写完了一个。。。又被吐槽了下没用lambda,复杂度高了。。。。
然后面试就结束了。。全程没有BQ。。。现在亚麻的面试变化那么大的吗。。。

补充一点啊。 面的岗位是Research Scientist。 全程其实比较关注NLP的知识点。

楼主多久知道结果的呢

我猜我是80%跪了。。最起码今天没收到通知,按道理应该这周知道结果吧。。哎。。面的觉得自己好搓啊 哈哈

楼主请问问你的面试官叫什么名字呀,我过两天也要面了,看了你的面经感觉心里好虚。。。

面我的是一个印度人 叫smuthi。你呢。我是面的心虚了

我的面试官是一个波兰人,关于面试官问你的那个model的问题我跟小伙伴讨论后是这样想的, (1)training 过程中设置validation set确保model不会overfit,(2)比较new加入data feature distribution 跟之前training data是不是相似的, 可以用t-test看, 不知道这样想对不对。。
还有就是想问下楼主 word collocation那题是怎么写出来的啊。。我没做过类似的题一点思路都没有

刚收到回复。。。已经跪了。。你说的model那部分我也是那么回答的。但感觉印度人不是很爽这个答案。关于collocation的问题,最直接的办法,你计算所有组合的出现次数,然后P(Y|X)是应该很大的。但是我当时没写好。。这把算是被血虐了。太痛了。。本来还挺自信的。

第二题搭配发现,算每两个词之间的 pmi。pmi 值越高,相关度就越高。统计完 bigram frequency 以后,几个 numpy 操作可以搞定。不过具体的公式我也不记得了。